3.2 Marketing et mesures d’audience
dans le secteur de l’information
3.2.1 Médiamat et enjeux
éditoriaux pour la télévision
L’une
des tendances fortes qui
découlent de l’industrialisation croissante du secteur de
l’information est
celle de la montée en puissance régulière des
méthodes de marketing et des
mesures d’audience afin de cibler les publics attractifs pour les
annonceurs
publicitaires. Comme l’explique Régine Chaniac,
l’adoption d’une référence
unique dans la mesure d’audience de la télévision
en France a été longue et
laborieuse, mais également liée à
l’évolution du système économique
régissant
le secteur des médias [Chaniac, 2003]. Le passage d’une
mesure artisanale, le
fameux carnet d’écoute auto-administré, à un
système sophistiqué et automatique
comme celui du Médiamat actuel, est concomitant avec le passage d’une
situation de monopole étatique absolu dans un premier temps à une concurrence
entre chaînes publiques après le démantèlement de l’ORTF en 1974, et par la
suite, à une concurrence entre chaînes publiques et chaînes privées, à partir
de la création de Canal + en 1984 et la privatisation de TF1 deux
ans plus tard. Cette époque marque le début des principales mutations dans la
conception de l’audience et dans l’utilisation des résultats des mesures qui
est faite par les programmateurs et les annonceurs publicitaires.
Evolutions
corrélatives au passage au Médiamat
Premièrement, il y a le passage d’un
délai long entre la diffusion d’une émission et la mesure de son audience, avec
l’utilisation du carnet auto-administré, à une connaissance quasi-instantanée
des résultats de l’audience. La première mesure permettait au programmateur de
travailler sans la pression constante des résultats quotidiens, qui
représentaient un regard sur le passé, arrivant après tout un ensemble de
réactions comme celles de la critique et des téléspectateurs qui s’exprimaient
par téléphone ou courrier. Avec le système de mesure actuel, le verdict du
public est intégré au présent de la télévision et prend le pas sur toutes les
autres instances de jugement. Les responsables des chaînes disposent le matin
des résultats de la veille avec les taux d’audience moyenne et cumulée de
chaque émission et la courbe d’audience globale par chaîne, indiquant les
départs et les arrivées des téléspectateurs et les reports d’une chaîne à une
autre à tout moment. La rapidité et la précision s’accompagnent d’une fiabilité
élevée, par rapport aux méthodes précédentes, et d’une représentation graphique
qui permet d’évaluer rapidement la performance d’une programmation.
Deuxièmement, dans l’ancien système de
mesure par carnet auto-administré, l’indice d’écoute était complété par un indice
de satisfaction qui permettait à un spectateur de dire s’il avait
effectivement regardé une émission et s’il l’avait appréciée ou pas. L’un
n’excluant pas l’autre. Ce système assez trivial prenait en compte, malgré
tout, la notion de qualité d’une émission et la complexité du processus de
réception, qui peut aboutir à ce que de nombreux téléspectateurs regardent des
émissions qu’ils n’aiment ou qu’ils n’approuvent pas. Dans le système actuel de
Médiamat il n’y a pas une telle possibilité. Toute personne ayant
regardé une émission est supposée l’avoir plébiscitée, du moins par les
professionnels du secteur. D’où, selon Patrick Champagne, l’idée que le Mediamat
« n’est pas seulement un instrument qui mesure l’audience. Il est aussi la
concrétisation matérielle d’une philosophie politique qui implique une certaine
représentation du public de télévision, celle-ci étant parfaitement homologue
de celle qui s’est instaurée au même moment en politique avec la généralisation
de la pratique des sondages d’opinion » [Champagne, 2003, p.138].
Ce que la pratique des sondages ou du Médiamat
impose « c’est un nouveau principe de légitimité universel, fondé sur
l’audience majoritaire ou maximum, sur l’approbation populaire »
[ibid., p.138]. Ainsi cette technologie, qui est conçue et adaptée
essentiellement aux attentes des annonceurs publicitaires, s’apparente pour
l’auteur « à une sorte de référendum permanent sur les programmes et
exerce du même coup un puissant effet de verdict » [ibid., p.139]
parce qu’il est censé être scientifiquement approuvé et objectif, au sens du
collectif, par opposition à la subjectivité d’un jugement individuel. De cette
façon, les producteurs de la télévision qui sollicitent en permanence les
suffrages des téléspectateurs se trouvent dans une position qui est proche de
celle qu’occupent les hommes politiques.
Troisièmement, le monopole étatique
sur les programmes était complété par un monopole sur les résultats de
l’audience. Dans le système du carnet auto-administré les annonceurs
publicitaires n’avaient pas accès aux mesures de l’ORTF et se contentaient de
données plus approximatives, notamment celles du CESP. A l’époque, le nombre
d’écrans publicitaires qui était commercialisé était inférieur à la demande des
annonceurs. Ce monopole de la télévision publique permettait à la régie
publicitaire de l’ORTF de vendre en fin d’année tous les écrans de l’année
suivante, à un tarif uniforme selon les jours. Les annonceurs achetaient à
l’aveugle sans connaître le contexte de programmation exact et sans choisir la
date de diffusion [Chaniac, op.cité, p.84]. Avec la privatisation de TF1,
le secteur public se trouve en minorité, le nombre des écrans publicitaires
commercialisés par cette chaîne augmente, et l’offre d’espace publicitaire à la
télévision est pour la première fois supérieure à la demande. Les annonceurs
peuvent donc choisir leur support. Le rapport de force ayant changé, les
publicitaires demandent et obtiennent l’installation de l’audimétrie
individuelle qui permet de fournir de résultats par cible.
Ce procédé de mesure s’imposera
définitivement à partir des années 90 et la multiplication de chaînes de
télévision publiques et surtout privées, jusqu’à embrasser l’ensemble de canaux
de télévision, y compris ceux du câble et du satellite. Au début des années
2000, les différents acteurs du secteur ont décidé de substituer au carnet
d’écoute une méthodologie électronique concernant les chaînes du câble et du
satellite, comme dans le cas de Médiamat pour la TV hertzienne. MediaCabSat,
comme le remarquent les personnes qui ont participé à sa création, est né d’une
triple opportunité : la stratégie des annonceurs publicitaires qui
cherchent à toucher des publics de plus en plus fragmentés, une conjoncture
économique favorable qui permettait cet investissement important et une avancée
technologique validée, la difficulté principale de la mise en place d’un tel
outil étant le fait de pouvoir comptabiliser des audiences très segmentées [Appé
et Mauduit, 2003, p.95].
Nous pouvons considérer que jusque-là
les chaînes thématiques étaient le dernier espace de liberté pour les
programmateurs, où ils pouvaient innover sans prendre en compte de manière
décisive la sanction immédiate de l’audience. Ainsi, Olivier Appé et Jean
Mauduit de Médiametrie, concernant cette période de programmation
« sauvage », se posent la question rhétorique suivante :
« pourrait-on sérieusement envisager que les investisseurs financiers de
tous ordres - actionnaires ou annonceurs - qui misent sur les chaînes se voient
refuser les éléments de mesure dont ils ont besoin pour évaluer les retombées
de leurs investissements ? ». Et ils finissent par répondre par la
négative, « à moins d’admettre que le media planning est une
loterie et/ou qu’on vise mieux les yeux bandés » [ibid., p.103].
Les
enjeux éditoriaux de la logique économique
Ce bref historique de la mise en place
de la mesure d’audience de la télévision en France démontre combien ce
processus a été pensé, adapté et soutenu par les besoins du marché
publicitaire, qui sont directement liés aux intérêts économiques des
propriétaires des chaînes de télévision. Ce qui conduit inévitablement à une
emprise croissante des préoccupations commerciales en ce qui concerne l’offre
de télévision, qui cherche à répondre à une demande supposée telle qu’elle est
exprimée à travers les mesures d’audience.
Selon
Patrick Champagne, « la
logique économique qui a progressivement investi les
médias et la concurrence
pour l’audience entre les chaînes
généralistes loin de favoriser une
diversification de l’offre de programmes afin de satisfaire la
diversité des
demandes d’un public, lui-même très divers
socialement et culturellement, ont
conduit à l’inverse à une uniformisation de
l’offre, chaque chaîne cherchant à
chaque instant pour des raisons économiques à rassembler
un maximum de
gens » [Champagne, op.cité, pp.137-138]. Ce qui
conduit à des émissions
qui doivent avoir une rentabilité économique à
court terme et qui tendent à être
conçues à partir des attentes immédiates
supposées du public. L’exemple qui
incarne cette tendance actuellement est le développement
significatif de la
« télé-réalité », un
genre très formaté et commercial. Il apparaît
alors que certains responsables de chaînes sont peu enclins aux
productions
risquées et poussent à la fabrication de produits
à haut rendement financier,
mais dont la durée de vie est souvent
éphémère. Si cette affirmation est
partiellement contredite par l’apparition et le
développement de chaînes
thématiques, l’analyse demeure pertinente en ce qui
concerne les chaînes
commerciales de la télévision hertzienne gratuite de
masse, qui est la seule
accessible pour les trois quarts de la population française
actuellement[1].
La concurrence qui s’exerce entre ces
médias, qui sont soumis aux mêmes contraintes, aux mêmes sondages et aux mêmes
annonceurs, a tendance à les homogénéiser. Dans les rédactions on passe un
temps considérable à parler des autres, ce qu’ils ont fait ou pas. Selon Pierre
Bourdieu, cette sorte de jeu des miroirs produit un effet de clôture,
d’enfermement mental. C’est ce que l’auteur appelle la circulation
circulaire de l’information : « les informations et les objets
télévisuels sont imposés aux téléspectateurs parce qu’ils s’imposent aux
producteurs ; et ils s’imposent aux producteurs parce qu’ils sont imposés
par la concurrence avec d’autres producteurs » pour des parts de marché de
l’audience [Bourdieu, op.cité, p.30-31].
Les répercussions concrètes de
l’emprise économique sur les modes de production de l’information à la
télévision se manifestent à travers les stratégies des différents acteurs qui y
sont impliqués. Ces stratégies sont calquées sur la volonté de maîtriser deux
paramètres essentiels pour l’économie des chaînes, d’une part le coût de la
grille des programmes, et d’autre part les publics ciblés. Pour une chaîne
comme TF1, l’évolution de la performance du coût de la grille est
mesurée à l’aune de sa capacité à attirer les cibles privilégiées de ses
annonceurs publicitaires principaux.
Face à l’érosion globale de l’audience
de la chaîne, due en partie à un effet mécanique de multiplication des chaînes
concurrentes, qui est passée pour l’ensemble des téléspectateurs de 41% en 1992
à 35% de l’audience en 1999, la diminution de la part des « ménagères de
moins de cinquante ans », cible privilégiée des annonceurs de TF1,
a été plus limitée, passant de 40% à 37%
pendant la même période. Ce phénomène
explique la stratégie de la chaîne qui, face à
l’érosion de son audience, s’efforce
de mieux cibler son offre de programmes à destination des
publics que
recherchent ses annonceurs. D’où l’importance
accordée à la production et
l’achat des programmes qui s’adressent à ses cibles
privilégiées, comme par
exemple la catégorie variété et jeux qui en 1992 représentait 18% du
coût de la grille de TF1, et qui est ramenée à 24% en 1999. De même, la
catégorie fiction, qui comprend les séries, feuilletons et téléfilms, en
dehors des films de cinéma, est passée de 19% à 28% du coût de la grille de
programmes dans la même période. A l’inverse les dépenses pour la catégorie jeunesse
ont diminué de 7% et celles concernant l’information ont très faiblement
augmenté[2]. De
cette façon même si la part d’audience de la chaîne diminue, sa rentabilité sur
les cibles à fort potentiel publicitaire reste plus importante que sur
l’ensemble de son public. L’effort constant de maîtriser le coûts de la grille
des programmes, combiné à une politique de programmation qui privilégie les
cibles les plus rentables sont les raisons qui expliquent la bonne performance
économique du groupe qui affiche en 2003 un bénéfice net de 191,5M d’euros[3].
La
question du format
Mais les contraintes économiques ne
concernent pas seulement la programmation et le coût de la grille. Elles
affectent la production au cœur même de la création des programmes, notamment
en ce qui concerne l’information. Ainsi Julien Duval dans son étude de cas de
l’émission Capital de M6,
démontre combien les impératifs
d’audience et la concurrence pour les parts de marché
affectent les procédés
même de travail des producteurs et des journalistes [Duval, op.
cité,
pp.267-297]. La programmation des thèmes d’émission
prend activement en compte
le calendrier, de façon à ce que les thèmes
« tous publics » soient
réservés aux vacances scolaires. De même,
l’ordre dans lequel les reportages se
succèdent au cours d’une même émission
obéit à la nécessité de retenir le plus
longtemps possible un public toujours susceptible de passer à la
concurrence.
La façon dont sont présentés les
différents reportages obéit lui aussi au « style » propre à
l’émission, ce qu’aucun magazine d’information n’avait fait auparavant en
France : les interviews durent rarement plus de quinze secondes ; la
musique et les sons d’ambiance sont choisis et utilisés comme dans un clip
musical ; les reportages sont construits comme des récits à suspense et
évoquent des cas concrets, des situations familières à un grand nombre de
téléspectateurs. La façon de travailler des journalistes de Capital est également
très formatée puisque toutes les émissions sont composées de la même manière,
en grands blocs de dix minutes, auxquels on applique des méthodes mises au
point en matière de fiction, comme la rédaction des synopsis, l’unité de lieu,
l’enchaînement des différentes séquences, le commentaire toujours utilisant les
mêmes expressions.
La question du format, qui découle
directement des contraintes économiques qui pèsent sur les médias, notamment
celles liées au temps, est d’une importance capitale en ce qui concerne
l’information. De nombreuses polémiques autour des traitements médiatiques
jugés partiaux ou injustes sont en fait liées à la question du respect d’un
format qui est imposé aux journalistes. Selon Cyril Lemieux, le remplissage
défectueux du format est l’occasion de critiques très fortes de la part des
autres intervenants sur la chaîne de production, notamment les supérieurs
hiérarchiques et les programmateurs. Ce qui peut exposer les contrevenants à
des sanctions et à des ruptures de coopération [Lemieux, 2000, p.394]. De cette
façon, « que l’action du journaliste soit dominée par une atmosphère
d’auto-contrainte ou plutôt, d’engagement, le lien qui l’unit à la visée
commerciale, n’a pour ce journaliste rien d’obligatoirement immédiat, ni d’évident.
Dans le cours même de l’activité, l’essentiel de ses intentions n’est pas
nécessairement en effet de faire des ventes ou de l’audience, mais il est
beaucoup plus pratique d’honorer au mieux un format. C’est en quelque sorte le
format, et non plus le journaliste, qui est en charge de faire de l’audience ou
des ventes » [ibid, p.394].
Toutes ces méthodes constituent, selon
Julien Duval, une « invention sous contrainte », c’est à dire
l’émergence des pratiques professionnelles qui obéissent à un certain nombre
des contraintes qui sont, dans le cas de l’émission Capital, le fait
d’une chaîne, M6, sans véritable ancrage dans le domaine d’information,
sans légitimité dans le traitement de l’actualité et avec des moyens financiers
limités face à une forte concurrence. Le succès d’une telle approche s’est
confirmé par la longévité de l’émission, plus de dix ans maintenant, mais
également ses taux d’audience élevés et une rentabilité assurée[4]. De
cette façon, l’émission Capital a permis à M6 non seulement d’augmenter
son capital économique à travers son succès commercial, mais également de
croître son capital journalistique en obtenant la reconnaissance des
professionnels.
3.2.2 L’introduction progressive du
marketing dans la presse d’information
Cependant, la télévision n’est pas le
seul média dans lequel les contraintes économiques affectent directement le
processus de production et de mise à disposition de l’information. La presse
est également largement dépendante des outils de mesure de son lectorat mais également
des méthodes de marketing sophistiquées. La presse magazine féminine a été la
première à appliquer de tels procédés, comme par exemple le fait de tester les
thèmes abordés auprès de groupes de lectrices. Ces pratiques s’inscrivent dans
un contexte plus général caractérisé par un double mouvement de segmentation
des publics et de thématisation des contenus. D’où la montée en puissance en
termes de diffusion des magazines spécialisés dans le domaine de l’information
« people », c’est-à-dire traitant essentiellement de l’actualité des
« stars » du petit écran, du sport et de la variété. Si une
telle tendance est particulièrement visible en France en ce qui concerne la
presse magazine, une tendance similaire gagne la presse quotidienne américaine
depuis le début des années 80.
Ainsi, selon les études citées par
Rodney Benson, au sein d’une partie significative des journaux américains un
nouveau genre d’information « soft » commence à gagner du terrain,
comprenant les rubriques « célébrités », « style de vie »
et sport, mais également les rubriques économiques [Benson, 2000, p.109]. Cette
tendance est corrélative avec, d’une part, la perte de contrôle familial et
l’entrée en bourse des titres tels le New York Times et le Washington
Post, et d’autre part l’affaiblissement de la séparation, au sein des
journaux, entre la section rédactionnelle et celle de la publicité, ce mur
séparant « l’Eglise et l’Etat », comme il est appelé aux Etats-Unis.
La mise en cause de cette séparation s’exprime en France même dans des titres
de presse tels le Nouvel
Observateur ou Le Parisien avec la multiplication des
rubriques de consommation, qui selon Valérie Patrin-Leclère, sont
« prétendument sélectives mais à coup sûr promotionnelles, la citation des
produits ou des marques dans le matériau rédactionnel intervenant en échange
d’un investissement financier dans un espace explicitement publicitaire »
[Patrin-Leclère, 2004, p.112].
Evolutions
dans le traitement médiatique du fait économique
Depuis le début des années 90 ces méthodes
de marketing à double sens, en direction du public et des annonceurs, gagnent
du terrain dans les segments de la presse française qui auparavant n’y étaient
pas attachés. C’est de cette façon que Julien Duval explique le succès du
magazine économique Capital, lancé en 1990 par Prisma Presse [Duval,
op.cité, p.209]. Dans ce cas, la dimension commerciale apparaît comme centrale
dans la conception du mensuel, qui recourt de façon systématique aux méthodes
de marketing comme la pratique intensive des sondages « vu-lu »[5].
Selon l’étude de J. Duval, les
journalistes de Capital travaillent en étroite collaboration avec les
services marketing qui interviennent dans le travail rédactionnel, les articles
prenant d’abord la forme de synopsis pour être testés avant publication auprès
de panels de lecteurs. Pour l’auteur, Capital procède à une forme de
dépolitisation du journalisme économique, en n’abordant jamais des sujets
traditionnellement présents dans la presse économique française, comme les
questions sur la politique économique du gouvernement ou des grandes
institutions comme le Fonds monétaire international ou la Banque centrale
européenne [ibid., pp.190-191]. Des thématiques comme la grande consommation et
les loisirs, ainsi que les présentations des entreprises à forte notoriété sont
très souvent mises en avant par les journalistes de Capital, dont
l’objectif explicite est de toucher le segment du public le plus rentable en
termes de revenus publicitaires, à savoir la population de cadres à fort
pouvoir d’achat.
Cette tendance, qui consiste en à un
effort soutenu pour attirer les segments du public les plus rentables en termes
publicitaires, touche également la presse dite de référence, c’est-à-dire
disposant d’un capital journalistique important reconnu dans les milieux
professionnels. Dans des journaux comme Le Monde ou Libération,
l’emprise grandissante des logiques économiques s’accompagne d’une
transformation du traitement de l’actualité économique. Comme le remarque
Julien Duval, les pages économiques de ces quotidiens ne traitent
essentiellement que de micro-économie, c’est-à-dire des stratégies économiques
des grandes entreprises et des questions financières. Des thèmes qui jusqu’au
milieu des années 80 étaient très peu traités par ces quotidiens [ibid.,
pp.222-223]. D’où la création des pages « Entreprises » en 1999 et du
supplément « Argent » en 2001 par Le Monde, qui rencontrent un
relatif succès auprès des annonceurs publicitaires.
Nous observons alors une convergence
dans le traitement de l’économie entre les titres de la presse d’information
générale et politique – dont le processus historique de constitution était
corrélatif à l’affirmation d’une position critique vis-à-vis du monde
économique – avec le traitement que réservent aux mêmes questions des titres
plus conservateurs et traditionnellement plus proches des milieux économiques
et financiers comme La Tribune et Les Echos. Cette tendance est
mise en parallèle par l’auteur avec l’évolution de la structure du capital des
journaux d’information générale en question, et notamment avec l’apparition
d’investisseurs extérieurs : « tout se passe en fait comme si le
traitement de l’économie dans les pages de ces journaux n’avait fait
qu’enregistrer le nouveau rapport à l’économie de ces entreprises de presse.
C’est au même moment que ces entreprises ont ouvert leur capital à des
financements externes et connu […] des transformations internes les rapprochant
plus qu’auparavant d’entreprises économiques privées ordinaires. Elles ont
alors modifié, dans leurs pages, le traitement de l’actualité économique »
[ibid., p.203].
Recherche
des publics à fort pouvoir d’achat
Cette mutation de la presse est
concomitante, comme dans le cas de la télévision, avec un changement
significatif dans la nature des méthodes utilisées pour mesurer et qualifier
son lectorat. Ainsi, l’étude de référence qu’est Euro-PQN[6], réalisée par Ipsos, tend à
être progressivement supplantée par des études ad-hoc qui concernent un
titre ou une catégorie de supports en relation avec des cibles
spécifiques.
C’est le cas de l’étude « La
France des cadres actifs » (FCA), qui est effectuée tous les ans depuis
1986 par Ipsos avec 7 000 interviews stratifiés en 15 publics. Elle repose sur
une méthodologie qui répond à des impératifs publicitaires portant sur un
échantillon représentatif non pas en référence à la population française dans
son ensemble, mais par rapport à « une population large de leaders
économiques (l’ensemble des 6, 5 millions de cadres actifs
résidant en France) ou bien sur des sous-populations répondant à des
caractéristiques précises : cadres supérieurs d’entreprises, professions
libérales, Décision Influence (cadres exerçant des responsabilités financières
et/ou d’encadrement de haut niveau), cadres administratifs, voyageurs
aériens »[7].
Comme
le rappelle Julien Duval, alors
que pour les enquêtes traditionnelles comme celle
effectuée par l’INSEE, et
même Euro-PQN, l’échantillon utilisé est
fondé sur les caractéristiques de
l’ensemble de la population française, la
probabilité de figurer dans
l’échantillon de l’étude FCA pour un lecteur
tend à être proportionnelle à son
pouvoir d’achat [ibid., p.213]. Cette logique de
représentation partielle est
poussée à son extrême avec l’introduction
dans l’étude FCA d’une catégorie
supplémentaire
à partir de 1998, baptisée « Décision
Influence ». Il s’agit de
pouvoir isoler au sein de l’audience globale la fraction du
public qui
participe aux décisions d’achat et d’investissement
dans les entreprises. Cette
fraction très minoritaire, à l’intérieur
même de la population de cadres,
représente non seulement son propre pouvoir d’achat, mais
surtout celui des
entreprises pour lesquelles elle travaille. De cette façon, elle
constitue la
cible privilégiée pour la publicité business to business, à savoir
celle qui fait la promotion de tous les produits et services en direction des
entreprises.
Cet ensemble de catégories qui sont fondées
essentiellement sur des critères économiques, comme le revenu, le capital ou le
pouvoir d’influence dans les entreprises, se sont constituées progressivement
en véritables outils à penser incorporés dans la pratique quotidienne des
dirigeants de la presse et des journalistes. Si le travail de ces derniers
n’est pas gouverné systématiquement par les études d’audience, a fortiori
dans la presse de référence, il n’en demeure pas moins que de tels critères
sont pris en compte d’une manière significative à des moments stratégiques. Cet
effort d’ajustement de l’offre à la demande joue un rôle important quand il
s’agit de réfléchir sur une nouvelle version d’un journal, de créer où de
supprimer une rubrique, de recruter des journalistes spécialistes.
A titre d’exemple nous pouvons se
référer à la réforme du journal Le Monde qui est mise en chantier en
2004, à cause des récents mauvais résultats du journal. Effectivement, la
structure économique du titre est mise en difficulté par une baisse de
diffusion chronique, qui a atteint 4,4% de diminution de ventes en 2003 et
jusqu’à 15 % pendant l’été 2004[8]. En
réaction, la direction du Monde a prévu le départ de 100 salariés, sur
750, jusqu’à la fin 2004, et commence à réfléchir sur un certain nombre de
changements éditoriaux[9]. Ces
changements visent d’une part à redresser la diffusion du quotidien mais
également à améliorer son audience auprès de la cible recherchée par les
annonceurs publicitaires que constituent les lecteurs à hauts revenus.
Ainsi, le dimanche 12 décembre 2004,
apparaît avec le quotidien un questionnaire concernant le supplément
« Argent » que les lecteurs sont invités à remplir et à renvoyer au
journal, pour « mieux (les) connaître et savoir ce qu’ (ils pensent) de ce
supplément »[10]. Ce
long questionnaire couvre deux pages entières du journal et comporte trente
huit questions de nature différente. Outre les questions sur les habitudes de
lecture (fidélité, durée), sur la concurrence (« quels autres quotidiens
lisez-vous ? ») et sur les caractéristiques socioprofessionnelles,
une place très importante est accordée aux questions qui concernent les
contenus du supplément et le patrimoine des lecteurs. Ainsi, cinq questions
sont dédiées à la connaissance de ce que les acheteurs du journal lisent
effectivement au sein du supplément (« Dans Le Monde Argent
lisez-vous ? » suivi par toutes les rubriques du supplément, « Dites
nous pour chacun s’ils vous intéressent beaucoup, assez, pas tellement, pas du
tout »). De la même manière, une quinzaine de questions visent à esquisser
un profil économique très détaillé du lectorat, concernant le fait de posséder
des actions, des obligations ou des valeurs immobilières, le fait d’être client
de plusieurs établissements bancaires, le fait d’intervenir souvent sur le
portefeuille d’actions, de disposer d’un chargé de compte comme intermédiaire
ou de transmettre ses ordres par l’internet. Autrement dit, la plus grande
partie du questionnaire est calquée sur les préoccupations des annonceurs
publicitaires du supplément et vise à attirer davantage leurs cibles
privilégiées en modifiant les contenus en conséquence.
Le même objectif est poursuivi au sein
du Figaro, depuis le rachat de sa société éditrice Socpresse par le
groupe Dassault et le changement de direction qui s’en est suivi. Dans un
effort de redresser la diffusion du journal la nouvelle direction a fait appel
à l’institut des sondages Sofres, pour évaluer l’adéquation du contenu du
journal avec les attentes des lecteurs[11]. Il apparaît des résultats
de l’enquête que la majorité des lecteurs interrogés souhaite voir les pages
« Economie » du quotidien enrichies en thèmes micro-économiques,
portant sur la vie des entreprises ou sur des questions pratiques comme les
placements ou l’immobilier, au détriment des sujets macro-économiques et
sociaux. Ces recommandations ont été prises en compte dans les changements
éditoriaux décidés.
Cette tendance concernant la presse,
et particulièrement la presse d’information politique et générale, est due
également au phénomène de rétrécissement régulier de son lectorat, corrélatif
avec un déplacement progressif des dépenses publicitaires vers d’autres médias,
notamment la télévision, et le hors-média. Ainsi, selon les éléments rassemblés
par Jean-Marie Charon, l’on remarque que la presse écrite dans son ensemble a
perdu la moitié de ses recettes publicitaires en l’espace de trente ans,
passant de 71,3% en 1970 à 37,1% en 2002 [Charon, 2003, p.88]. Et à l’intérieur
du secteur de la presse ce sont les journaux quotidiens qui sont le plus
touchés, particulièrement ceux de la presse nationale. A défaut d’une audience
de masse, à la même échelle que la télévision hertzienne par exemple, les
titres en question s’orientent davantage vers un public constitué de cibles à
fort pouvoir d’achat, plus limités en volume, afin de compenser la quantité
insuffisante du lectorat par sa qualité en termes publicitaires.
3.2.3 Des pratiques renforcées sur
l’internet
Ces pratiques, qui tendent à devenir
habituelles dans la presse, sont davantage appliquées par les sites
d’information. Ceci parce que la nature interactive du support permet de
collecter et de traiter de telles informations plus facilement en recourant à
des questionnaires en ligne. C’est le cas particulièrement en ce qui concerne
les sites spécialisés à des cibles à fort potentiel publicitaire, comme par
exemple les supports qui sont dédiés à l’actualité technologique, à
l’informatique et à l’économie comme Le Journal du Net ou ZDNet,
et qui s’adressent prioritairement à un public de cadres. Le fait de connaître
les contenus les plus lus est également grandement facilité par la nature même
du support qui permet à tout moment de connaître le trafic spécifique généré
par une rubrique ou un article sur un thème précis. Ce qui fait écrire à
Emmanuel Parody, rédacteur en chef du site ZDNet.fr, que
« l’analyse des logs (logiciels permettant de connaître le nombre d’internautes
à avoir visualisé une page web) est en effet impitoyable sur les articles que
l’on ne lit pas jusqu’au bout, sur les sujets qui ennuient, sur les chroniques
sans beaucoup de lecteurs […] la tentation est grande dans ce cas de tailler
dans le vif, de déplacer les rubriques, de limiter les thèmes abordés. Ceci
parce que sur la base d’un calcul à courte vue, les revenus publicitaires d’un
site gratuit sont liés étroitement au volume de pages vues. Pour beaucoup de
petits sites en quête de rentabilité, il est suicidaire de s’autoriser des
contenus à faible audience »[12]. Ainsi
la question de l’audience et du marketing éditorial sur l’internet apparaît
comme une des problématiques centrales de la transposition du modèle médiatique
en ligne.
L’ambiguïté
de la notion de l’audience en ligne
Selon Josiane Jouët, nous pouvons
penser que l’architecture de l’internet défie en elle-même l’application de la
notion de l’audience. Ceci parce que l’internet n’est pas un média de masse
s’inscrivant dans une logique de diffusion, mais un hypermédia interactif qui
s’inscrit dans une logique de connexion. De plus, c’est un pluri-média « qui
donne accès à une multitude de services d’information, de loisirs, de jeux, de
transaction, de commerce ou de communication interpersonnelle [ce qui] lui
confère un caractère globalisant qui fait éclater les sphères du travail et de
l’échange communicationnel » [Jouët, 2003, p.203]. Cependant, le financement
d’une partie importante des structures qui s’activent dans le secteur de l’information
en ligne repose pour l’essentiel sur la publicité. Ce qui suppose une
connaissance des publics qui consultent les sites internet, et par conséquent
implique nécessairement des outils et méthodes de mesure de l’audience en
ligne. La mesure de l’audience sur l’internet n’est donc pas simplement la
transposition des méthodes appliquées dans la presse et l’audiovisuel, puisque
comme l’indique Josiane Jouët, elle se greffe d’emblée sur deux autres
logiques, celle de la mesure de trafic des télécommunications et celle de
numérisation de l’informatique [ibid., p.203].
Ainsi,
avec l’apparition de l’internet
grand public à la fin des années 90, cet espace
médiatisé qui à l’origine
n’était pas exploité commercialement a
été intégré dans la sphère
médiatique
marchande, avec notamment l’apparition de la publicité en
son sein. Cette
mutation de l’internet a mis en évidence le fait que les
mesures de trafic
utilisés jusque-là, qui n’avaient pas
été créées à l’origine avec
une visée
directement commerciale, ou du moins publicitaire,
n’étaient pas à même de
soutenir un modèle économique reposant essentiellement
sur un financement
indirect. Ce qui a conduit à une combinaison de deux
méthodes de mesure, celles
qui proviennent des sciences sociales et du marketing, notamment avec
l’utilisation de panels d’internautes qui consentent
à l’installation d’un
logiciel espion sur leur ordinateur ; il s’agit
d’outils centrés sur
l’usager (user centric). Mais également celles qui proviennent des
télécommunications et de l’informatique, notamment toutes les procédures de
capture et de suivi du trafic ; il s’agit des outils centrés sur les sites
(site centric).
Progressivement, tous les outils et
méthodes qui permettent de mesurer et d’apprendre sur les usagers de
l’internet, qui constituent l’audience des sites, ont acquis une importance
capitale du point de vue économique. Car ce sont eux qui définissent l’ampleur
et la qualité du public qui peut être potentiellement touché par un site
d’information donné, et par la même l’intérêt commercial de ce dernier pour les
annonceurs publicitaires. Par conséquent, les mesures d’audiences et les moyens
de collecte d’information sur les usagers constituent l’un des principaux
enjeux de l’économie de l’information sur l’internet en influençant
partiellement l’étendue des entrées financières des sites. Selon Josiane Jouët,
« ces dispositifs conjuguent d’une part du tracking avec des
logiciels de capture qui fournissent aux sites souscripteurs des données
précises sur leur fréquentation, les caractéristiques des visites du site,
l’assiduité des internautes et, d’autre part parfois du profiling qui
vise à une qualification de l’audience » [ibid., p.208]. Comme dans le cas
de la presse et de l’audiovisuel, ce renforcement des impératifs d’audience,
concomitant avec le changement de la structure financière des médias, peut
conduire potentiellement à un renforcement au sein de l’information en ligne
des thèmes les plus commerciaux, au détriment de l’information générale et
politique traditionnelle, et une mise en question de la séparation entre
services commerciaux et services rédactionnels, particulièrement au sein des
nouveaux acteurs comme les portails généralistes. Ceci d’autant plus qu’au sein
de l’internet, le marketing éditorial est renforcé par la facilité technique
avec laquelle il peut être mis à contribution, mais également par les
caractéristiques propres d’un certain nombre d’acteurs qui ne sont pas
particulièrement attachés dans leur fonctionnement concret aux pratiques
professionnelles traditionnellement dominantes dans le champ
journalistique.
3.2.4
Les mesures de l’internet
Tout système de financement indirect
par la publicité repose sur un dispositif de mesure fiable, ou du moins
considéré comme tel par les acteurs du marché, qui vise à connaître le public
du média et à comparer les performances des concurrents. Comme le remarque
Josiane Jouët, l’internet repose sur le paradoxe suivant : « il est
le média qui a priori se prête
le mieux à la connaissance de ses publics, car l’usager en ligne laisse
quantité de traces, mais il est à la fois le média le plus complexe à
mesurer » [ibid., p.203]. Ceci en raison de la complexité des applications
qu’il met en œuvre lors de son utilisation. Afin d’appréhender les enjeux d’une
telle configuration nous allons nous efforcer par la suite de présenter
brièvement les principales mesures de l’internet.
Lors d’une consultation d’un site
internet plusieurs éléments peuvent faire l’objet d’une mesure. Il peut s’agir
de visites, qui représentent le
trafic du site et renvoient à la logique des télécommunications. La visite est
définie comme la succession de pages vues sur un même site qui commence lors de
la connexion et se termine par le déplacement vers un autre site, le changement
de navigateur ou d’identifiant, ou une période d’inactivité qui excède le seuil
de trente minutes[13].
Il peut également s’agir de requêtes,
qui représentent l’interaction de l’internaute avec le serveur qui héberge le
site et sur lequel sont stockées les informations numérisées. Une requête est
effectuée par un clic d’appel d’une page directement à partir du champ
d’adresses du navigateur ou au moyen de liens hypertexte.
Les requêtes renvoient partiellement à
une logique d’informatique, puisque elles font intervenir le langage HTML
et d’autres applications et logiciels. La réponse à une requête constitue un
ensemble de fichiers informatiques qui forment une page web visualisée à
l’écran de l’ordinateur, qui peut être différente selon la provenance de la
requête. La particularité de l’internet réside précisément dans cette
possibilité d’interaction qui consiste pour un serveur de renvoyer des pages
différentes pour la même requête selon des critères prédéfinis, par exemple en
ce qui concerne les publicités qu’elles comportent. Une page internet
visualisée qui répond à une requête de la part de l’internaute et qui comporte
de la publicité constitue une page vue
avec publicité (PAP), ce qui est le principal indicateur utilisé par les
régies et les annonceurs. Enfin, les mesures de l’internet peuvent concerner
des sessions de
« surf » qui permettent d’observer le comportement de navigation des
usagers de l’internet. Cette notion renvoie à une logique d’audience, qui
trouve son origine dans les médias de masse, puisqu’elle fait intervenir la
notion de concurrence entre plusieurs sites pour attirer le public.
User-centric
et site-centric
Les différentes notions précédemment
décrites ont donné lieu à des mesures différentes. Les principales familles des
mesures sont celle centrées sur l’utilisateur (user-centric) et celles centrés
sur le site (site-centric). Les mesures centrées sur l’utilisateur
comptabilisent de l’audience et
trouvent leur origine dans la technique classique de sondages, avec le
recrutement d’un échantillon représentatif de la population internaute. Les
personnes qui acceptent de faire partie de ce panel consentent à l’installation
d’un logiciel espion dans le disque dur de leur ordinateur qui enregistre de
manière passive tous les déplacements et actions effectués par les utilisateurs
lors d’une séance de consultation. Comme pour le système de Médiamat de
la télévision, afin d’obtenir des données par personne, les différents membres
du foyer doivent s’identifier lors de la connexion. Le principal avantage de
cette mesure est la possibilité de recouper les pratiques en ligne (sites
visités, services utilisés), observées de façon passive et donc
particulièrement fiable, avec les caractéristiques socioprofessionnels des
internautes. Ainsi, nous pouvons obtenir une corrélation relativement précise
entre les profils socioprofessionnels et les usages effectifs de la population
internaute en ce qui concerne les sites qui disposent d’une audience
importante. Inversement, le principal problème de la mesure user-centric est
celui de la non représentation des petits sites, dont la masse critique
d’audience n’est pas suffisante pour être relevée. Un autre point problématique
de cette méthode est la représentativité du panel, notamment en ce qui concerne
les lieux publics de consultation (cybercafés, universités, bibliothèques),
ainsi que les consultations depuis l’étranger qui ne sont pas comptabilisées.
Après le rachat de ses concurrents dans ce secteur, depuis la fin 2002 le panel
de Médiametrie/Nielsen-NetRatings est le seul disponible en France. Il est
constitué d’un échantillon représentatif de 10 000 internautes et couvre
environ 1 600 sites par mois.
Les mesures centrées sur le site
comptabilisent du trafic et
permettent au gestionnaire de connaître sa fréquentation. Historiquement, elles
sont les premières mesures qui ont été mises en place sur l’internet. Il y a
deux sortes de mesures site-centric : celles qui utilisent des témoins de
connexion (cookies) et celles qui utilisent des marqueurs et des fichiers de
connexion (logs). Un témoin de connexion permet de distinguer les différents
postes connectés sur le serveur d’un site internet. Normalement, il ne doit pas
comporter des données nominatives, mais il existe des structures qui en font un
usage abusif. En raison de leur caractère intrusif, puisque ils logent dans le
disque dur de l’internaute, les cookies sont souvent l’objet d’opposition de la
part des usagers, qui les évitent soit en réglant le navigateur à ne pas les
accepter, soit simplement en les effaçant de manière régulière. D’où la
fiabilité relativement faible de cette mesure quand il s’agit de comparer le
trafic de plusieurs sites différents.
En ce qui nous concerne, nous allons
utiliser dans notre travail essentiellement des données concernant l’audience
de sites internet mesurée en nombre de visiteurs uniques. Ceci afin de pouvoir
confronter les chiffres de l’audience aux données concernant les
caractéristiques socioprofessionnelles des internautes. Cependant, étant donné
que les résultats du panel de Médiamétrie ne sont pas librement accessibles
pour tous les sites que nous avons inclus dans notre échantillon de recherche,
nous allons nous tourner vers les mesures site-centric là où il sera
nécessaire.
3.2.5 Les mutations observables de
la notion de l’audience en ligne
En dehors de la question des outils de
mesure, l’émergence des modes de diffusion de l’information sur l’internet est
accompagnée par une série de mutations de la notion de l’audience. La première mutation de la notion de
l’audience que nous avons pu déceler lors de notre recherche de terrain prend
ses racines dans les possibilités techniques offertes par l’internet.
Effectivement, l’audience telle qu’elle peut être mesurée sur le web n’est plus
seulement le nombre de personnes ayant utilisé un dispositif d’information, ni
la part de marché d’un public donné, comme cela peut l’être au sein de la
presse et l’audiovisuel. Il s’agit plutôt d’un ensemble de données complexes,
collectées au moyen des procédés divers, dont certains comme la personnalisation
des pages d’information, ont directement trait avec les modalités d’accès à
l’information.
Autrement dit, la question principale
concernant cette audience n’est pas seulement de savoir qui a consulté quel
média et à quel moment, mais également comment, venant d’où pour aller où, en
achetant quoi et ainsi de suite. Des paramètres comme les centres d’intérêt,
les parcours de navigation et d’autres encore peuvent être utilisées afin de
permettre aux responsables marketing de la structure qui collecte ces données
« une insertion dynamique des publicités qui peut varier en fonction de la
cible et en fonction de l’exposition préalable de l’internaute aux messages
publicitaires » [ibid., p.208]. Ce trait est si fondamental que des
responsables des sites d’information comme ZDNet.fr déclarent que la
ressource la plus importante dont ils disposent, et qui est susceptible de
rapporter de revenus financiers, est justement la base de données qui comporte
toutes ces informations sur les internautes qui visitent le site.
Cette base de données, fournie entre
autres par les cookies, est d’autant plus utile que les personnes qui
visitent un site d’information ont plus de chances d’y revenir et donc d’y
rapporter des données qui peuvent être comparées à la dernière collecte
effectuée. Cette notion d’affinité constitue le principal argument utilisé par
les différents groupements (Online Publishers Association Europe, GESTE) qui
essayent d’attirer les annonceurs vers les sites-médias, au dépens des portails
généralistes. C’est dans ce contexte qu’un nombre croissant des journaux en
ligne américains, dont le New York Times, fonctionnent sur un mode
d’inscription gratuite auprès du site au moyen d’un questionnaire comportant
différentes informations, dont une adresse électronique valide. Dans cette
configuration, l’aspect qualitatif de l’audience est autant, sinon plus
important que l’aspect quantitatif. Ce qui peut conduire à l’aggravation de la
tendance qui incite les médias à se concentrer sur les cibles rentables en termes
publicitaires, c’est-à-dire les populations à fort pouvoir d’achat. D’autant
plus que ces dernières sont surreprésentées au sein de la population
internaute. Ainsi, la tendance à l’ajustement permanent de l’offre
d’information à la demande supposée du public recherché, telle qu’elle
s’exprime au moyen de différents outils de mesure de l’audience, se trouve
également facilitée par les caractéristiques techniques et économiques de
l’internet.
La
notion de consultabilité
L’autre mutation de la notion de
l’audience que nous avons pu relever lors de notre recherche de terrain découle
de la possibilité de mesurer tous les sites internet de la même manière, quelle
que soit leur origine. Ainsi Contrôle Diffusion, malgré son enracinement
historique dans le secteur des médias, certifie le trafic des sites
d’information mais également de nombreux sites institutionnels. De la même
manière la mesure de l’audience établie par le panel Nielsen-Net Ratings de
Médiametrie comporte différentes catégories de sites, dont la catégorie
« News & Information ». Au sein de cette sous-partie des
résultats du panel, les deux premiers sites pour le mois d’octobre 2003, en
termes d’audience, sont le site des Pages Jaunes et celui de MeteoFrance,
suivis par ceux du Monde et des pages actualité de Yahoo[14].
La liste comporte également des sites comme Toutgagner.com, Meteo
Consult et Cityvox, entremêlés aux sites-médias et aux pages
d’actualité des portails généralistes. Cette mise en concurrence directe des
supports dont la finalité est différente n’est pas possible en dehors de
l’internet.
En effet, il est difficilement
envisageable de voir les Pages Jaunes effectuer des études de lectorat
et les comparer avec celle du Monde ou avec les résultats de l’audience
de TF1. Néanmoins, sur l’internet tous les sites qui reposent sur
un modèle de financement indirect se concurrencent au sein du même marché
publicitaire, ce qui permet aux professionnels du secteur d’effectuer des
découpages de la sorte. Ainsi, la notion de l’audience, qui a pris corps dans
un contexte spécifique de l’essor des médias audiovisuels de masse, évolue sur
l’internet vers une sorte de mesure universelle de notoriété ou de consultabilité,
sans que cela implique nécessairement une structure de nature médiatique. Sur
ce point, nous pouvons faire référence au concept de relations publiques généralisées, qui consiste dans le « recours en
voie de généralisation par les Etats, les entreprises et les grandes
organisations politiques et sociales, aux techniques de gestion du social et
aux techniques de communication, ainsi que sur l’engagement de stratégies de
communication de plus en plus perfectionnées » [Miège, 1997, p.121]. Dans
ce contexte, l’internet n’offre plus seulement le support de cette
généralisation, mais également les moyens d’en mesurer la portée comme
prolongement de l’espace médiatique.
Des
mesures « communautaires » : retour de l’indice de
satisfaction ?
La troisième mutation de la notion
d’audience que nous avons relevé lors de notre recherche est l’apparition de
nouveaux modes de mesure de l’intérêt ou de la pertinence des pages web
d’information, au moyen d’outils novateurs. Effectivement, depuis l’apparition
des weblogs
aux Etats Unis, il y a un certain nombre d’années, le
phénomène s’est accentué et s’est
développé également en Europe. Il s’agit de
sites internet personnels qui sont fondés sur le principe de la
périodicité, à
savoir l’ajout régulier de contenus qui peuvent prendre la
forme d’un journal,
des chroniques ou des commentaires. Des outils spécifiques
à la mise à jour de
ces pages web ont étés conçus (p.e. le SPIP en
France), qui permettent aux webloggers
d’intégrer de contenus en provenance d’autres sites, soit d’autres weblogs, soit des sites d’information, au
moyen de liens hypertexte. L’utilisation du meta-langage RSS permet de tenir à
jour ces liens dès qu’une nouvelle information apparaît sur le site source.
Ainsi, un weblogger expérimenté peut entretenir des pages qui comportent
ses propres commentaires, ceux d’autres personnes, dont il apprécie la qualité,
mais également de liens vers les derniers articles parus sur telle thématique
ou sur tel support d’information qu’il affectionne.
L’augmentation du nombre de weblogs régulièrement
mis à jour, le développement de liens de communauté entre leurs créateurs ainsi
que l’évolution des outils techniques, ont conduit à la convergence entre les
différents secteurs de l’internet, sphère marchande et non marchande, sites
d’information et sites personnels, au moyen d’outils de mesure comme Technorati[15]. Ce
système est un moteur de recherche qui suit en permanence quelque deux millions
de sources du World Live Web, c’est-à-dire la partie de l’internet qui
n’est pas statique, mais mise à jour régulièrement. La recherche se fonde sur
ce que les créateurs de l’outil appellent des « conversations »,
c’est-à-dire des contenus écrits, comportant des liens hypertextes vers
d’autres sites. Ainsi, une recherche à travers ce moteur peut s’effectuer soit
sur une thématique, les résultats comportent alors des liens vers des articles
parus dans les weblogs sur le sujet ; soit sur une source, les
résultats comportent alors la liste des weblogs qui comportent des liens
vers cette source.
Cette mutation est de nature hybride dans la
mesure où elle se trouve aux frontières de la notion d’audience et celle de la
recherche d’information et qu’elle brouille les frontières entre offre et
demande, puisque c’est cette dernière qui influe directement sur les moyens et
l’étendue de la mise à disposition d’une information. De cette façon, plus une
information est lue, plus elle est susceptible d’être « discutée » au
sein des blogs et, dans un mouvement circulaire, elle sera davantage mise en
avant dans des outils comme Technorati. Ce qui conduit à une diffusion
« virale » des thèmes et des questions débattues qui pèse directement
sur l’audience des sites d’information. En fait, il s’agit d’une certaine
manière du principe de bouche à oreille qui prend corps dans un cadre
médiatisé, avec une forte composante de ce qu’on pourrait appeler un
« indice de satisfaction » ou un jugement qualitatif de la part des lecteurs-blogers
qui renvoie aux premières mesures de l’audience de la télévision en France et
l’utilisation du carnet d’écoute auto-administré.
[1] Selon le CSA, l’offre multichaîne
atteint en 2003 25 % des 23,3 millions de foyers équipés d'une télévision en
France. Source : La Lettre du CSA n° 177 - Octobre 2004, accessible
sur : http://www.csa.fr/actualite/dossiers/dossiers_detail.php?id=19355&chap=2515
[2] Source : Le Champion Rémy et Danard Benoît, Télévision
de pénurie, télévision d’abondance, La documentation Française, Paris,
2000.
[3]Source : Rapport annuel TF1 2003, accessible à l’adresse : http://www.tf1finance.fr/chiffres.htm
[4] Le 28 novembre 1999 par exemple l’émission réalise
l’une de ses meilleures audiences, 23,7% des parts de marché avec 5,87 millions
de téléspectateurs. Source : [Duval, 2004, op.cité].
[5] Le score « vu-lu » est un indicateur
d’efficacité publicitaire utilisé dans le domaine de la presse pour mesurer la
mémorisation. Le score de vu-lu est établi en présentant les annonces
publicitaires à un lecteur en lui demandant ce qu’il se souvient avoir vu ou
lu.
[6] L’étude en question comporte une partie consacrée à la
presse quotidienne et une autre consacrée à la presse magazine. La
première porte sur 11 titres nationaux, 71 régionaux et 174 titres de la presse
hebdomadaire régionale. Le recueil d’information est effectué par téléphone
auprès d’une population de 15 ans et plus appartenant à des ménages ordinaires.
Les interviews sont reparties sur toute l’année sur un échantillon total des 21
700 répondants. La définition de l’audience appliquée est la suivante
« avoir lu, parcouru ou consulté chez soi ou ailleurs tel journal ».
La seconde porte sur plus de 150 titres, hebdomadaires et mensuels pour la
plupart. L’échantillon total est de 20 100 individus. La nature et l’ampleur du
questionnement exigent la situation de face à face au domicile de la personne
interrogée.
[7] Source : http://www.ipsos.fr/SolutionsIpsos/content/818.asp?rubId=29
[8] Source : « La presse dans la
tourmente », Emannuelle Giulani, La Croix, lundi 20 septembre 2004. Cette
baisse du lectorat et les tensions provoquées par les changements en
préparation ont abouti à ce que Edwy Plenel, qui avait été nommé directeur de
la rédaction du Monde en
février 1996, a présenté sa démission, lundi 29 novembre 2004. Source :
« Edwy Plenel quitte ses fonctions de directeur de la rédaction du
Monde », Le Monde, mardi 30 novembre 2004, non signé.
[9] Voir à ce sujet « La reforme selon Jean- Marie
Colombani », Thiébault Dromard, Le Figaro Economie, vendredi 26 novembre
2004.
[10] Sauf indication contraire les citations proviennent du
questionnaire.
[11] « La nouvelle direction du Figaro peine à
convaincre sa rédaction », Bertrand D’Armagnac, Le Monde, vendredi 28
janvier 2004.
[12] Message adressé à la Jliste le 26 septembre
2000, liste de discussion dédiée au journalisme en ligne supprimée depuis. Cité
par Fortin Pascal, « Le journalisme en ligne au risque de l'argent »,
Institut Français de Presse -
Publications en ligne, 2000, accessible à l’adresse
http://www.u-paris2.fr/ifp/recherche/ activites/publications/rec_act_lig$fortin01.pdf
[13] CESP, Terminologie Internet, mai 2002, (cf. Annexe 5).
[14] Source : Résultats du panel de
Médiamétrie/Nielsen-NetRatings pour la catégorie « News &
Information » octobre 2003, obtenue auprès de François-Xavier Hussherr,
responsable du département internet de Médiamétrie, (cf. Annexe 4).