3.2 Marketing et mesures d’audience dans le secteur de l’information

3.2.1 Médiamat et enjeux éditoriaux pour la télévision

L’une des tendances fortes qui découlent de l’industrialisation croissante du secteur de l’information est celle de la montée en puissance régulière des méthodes de marketing et des mesures d’audience afin de cibler les publics attractifs pour les annonceurs publicitaires. Comme l’explique Régine Chaniac, l’adoption d’une référence unique dans la mesure d’audience de la télévision en France a été longue et laborieuse, mais également liée à l’évolution du système économique régissant le secteur des médias [Chaniac, 2003]. Le passage d’une mesure artisanale, le fameux carnet d’écoute auto-administré, à un système sophistiqué et automatique comme celui du Médiamat actuel, est concomitant avec le passage d’une situation de monopole étatique absolu dans un premier temps à une concurrence entre chaînes publiques après le démantèlement de l’ORTF en 1974, et par la suite, à une concurrence entre chaînes publiques et chaînes privées, à partir de la création de Canal + en 1984 et la privatisation de TF1 deux ans plus tard. Cette époque marque le début des principales mutations dans la conception de l’audience et dans l’utilisation des résultats des mesures qui est faite par les programmateurs et les annonceurs publicitaires.

 

Evolutions corrélatives au passage au Médiamat

Premièrement, il y a le passage d’un délai long entre la diffusion d’une émission et la mesure de son audience, avec l’utilisation du carnet auto-administré, à une connaissance quasi-instantanée des résultats de l’audience. La première mesure permettait au programmateur de travailler sans la pression constante des résultats quotidiens, qui représentaient un regard sur le passé, arrivant après tout un ensemble de réactions comme celles de la critique et des téléspectateurs qui s’exprimaient par téléphone ou courrier. Avec le système de mesure actuel, le verdict du public est intégré au présent de la télévision et prend le pas sur toutes les autres instances de jugement. Les responsables des chaînes disposent le matin des résultats de la veille avec les taux d’audience moyenne et cumulée de chaque émission et la courbe d’audience globale par chaîne, indiquant les départs et les arrivées des téléspectateurs et les reports d’une chaîne à une autre à tout moment. La rapidité et la précision s’accompagnent d’une fiabilité élevée, par rapport aux méthodes précédentes, et d’une représentation graphique qui permet d’évaluer rapidement la performance d’une programmation.

Deuxièmement, dans l’ancien système de mesure par carnet auto-administré, l’indice d’écoute était complété par un indice de satisfaction qui permettait à un spectateur de dire s’il avait effectivement regardé une émission et s’il l’avait appréciée ou pas. L’un n’excluant pas l’autre. Ce système assez trivial prenait en compte, malgré tout, la notion de qualité d’une émission et la complexité du processus de réception, qui peut aboutir à ce que de nombreux téléspectateurs regardent des émissions qu’ils n’aiment ou qu’ils n’approuvent pas. Dans le système actuel de Médiamat il n’y a pas une telle possibilité. Toute personne ayant regardé une émission est supposée l’avoir plébiscitée, du moins par les professionnels du secteur. D’où, selon Patrick Champagne, l’idée que le Mediamat « n’est pas seulement un instrument qui mesure l’audience. Il est aussi la concrétisation matérielle d’une philosophie politique qui implique une certaine représentation du public de télévision, celle-ci étant parfaitement homologue de celle qui s’est instaurée au même moment en politique avec la généralisation de la pratique des sondages d’opinion » [Champagne, 2003, p.138].

Ce que la pratique des sondages ou du Médiamat impose « c’est un nouveau principe de légitimité universel, fondé sur l’audience majoritaire ou maximum, sur l’approbation populaire » [ibid., p.138]. Ainsi cette technologie, qui est conçue et adaptée essentiellement aux attentes des annonceurs publicitaires, s’apparente pour l’auteur « à une sorte de référendum permanent sur les programmes et exerce du même coup un puissant effet de verdict » [ibid., p.139] parce qu’il est censé être scientifiquement approuvé et objectif, au sens du collectif, par opposition à la subjectivité d’un jugement individuel. De cette façon, les producteurs de la télévision qui sollicitent en permanence les suffrages des téléspectateurs se trouvent dans une position qui est proche de celle qu’occupent les hommes politiques.

Troisièmement, le monopole étatique sur les programmes était complété par un monopole sur les résultats de l’audience. Dans le système du carnet auto-administré les annonceurs publicitaires n’avaient pas accès aux mesures de l’ORTF et se contentaient de données plus approximatives, notamment celles du CESP. A l’époque, le nombre d’écrans publicitaires qui était commercialisé était inférieur à la demande des annonceurs. Ce monopole de la télévision publique permettait à la régie publicitaire de l’ORTF de vendre en fin d’année tous les écrans de l’année suivante, à un tarif uniforme selon les jours. Les annonceurs achetaient à l’aveugle sans connaître le contexte de programmation exact et sans choisir la date de diffusion [Chaniac, op.cité, p.84]. Avec la privatisation de TF1, le secteur public se trouve en minorité, le nombre des écrans publicitaires commercialisés par cette chaîne augmente, et l’offre d’espace publicitaire à la télévision est pour la première fois supérieure à la demande. Les annonceurs peuvent donc choisir leur support. Le rapport de force ayant changé, les publicitaires demandent et obtiennent l’installation de l’audimétrie individuelle qui permet de fournir de résultats par cible.

Ce procédé de mesure s’imposera définitivement à partir des années 90 et la multiplication de chaînes de télévision publiques et surtout privées, jusqu’à embrasser l’ensemble de canaux de télévision, y compris ceux du câble et du satellite. Au début des années 2000, les différents acteurs du secteur ont décidé de substituer au carnet d’écoute une méthodologie électronique concernant les chaînes du câble et du satellite, comme dans le cas de Médiamat pour la TV hertzienne. MediaCabSat, comme le remarquent les personnes qui ont participé à sa création, est né d’une triple opportunité : la stratégie des annonceurs publicitaires qui cherchent à toucher des publics de plus en plus fragmentés, une conjoncture économique favorable qui permettait cet investissement important et une avancée technologique validée, la difficulté principale de la mise en place d’un tel outil étant le fait de pouvoir comptabiliser des audiences très segmentées [Appé et Mauduit, 2003, p.95].

Nous pouvons considérer que jusque-là les chaînes thématiques étaient le dernier espace de liberté pour les programmateurs, où ils pouvaient innover sans prendre en compte de manière décisive la sanction immédiate de l’audience. Ainsi, Olivier Appé et Jean Mauduit de Médiametrie, concernant cette période de programmation « sauvage », se posent la question rhétorique suivante : « pourrait-on sérieusement envisager que les investisseurs financiers de tous ordres - actionnaires ou annonceurs - qui misent sur les chaînes se voient refuser les éléments de mesure dont ils ont besoin pour évaluer les retombées de leurs investissements ? ». Et ils finissent par répondre par la négative, « à moins d’admettre que le media planning est une loterie et/ou qu’on vise mieux les yeux bandés » [ibid., p.103].

 

Les enjeux éditoriaux de la logique économique

Ce bref historique de la mise en place de la mesure d’audience de la télévision en France démontre combien ce processus a été pensé, adapté et soutenu par les besoins du marché publicitaire, qui sont directement liés aux intérêts économiques des propriétaires des chaînes de télévision. Ce qui conduit inévitablement à une emprise croissante des préoccupations commerciales en ce qui concerne l’offre de télévision, qui cherche à répondre à une demande supposée telle qu’elle est exprimée à travers les mesures d’audience.

Selon Patrick Champagne, « la logique économique qui a progressivement investi les médias et la concurrence pour l’audience entre les chaînes généralistes loin de favoriser une diversification de l’offre de programmes afin de satisfaire la diversité des demandes d’un public, lui-même très divers socialement et culturellement, ont conduit à l’inverse à une uniformisation de l’offre, chaque chaîne cherchant à chaque instant pour des raisons économiques à rassembler un maximum de gens » [Champagne, op.cité, pp.137-138]. Ce qui conduit à des émissions qui doivent avoir une rentabilité économique à court terme et qui tendent à être conçues à partir des attentes immédiates supposées du public. L’exemple qui incarne cette tendance actuellement est le développement significatif de la « télé-réalité », un genre très formaté et commercial. Il apparaît alors que certains responsables de chaînes sont peu enclins aux productions risquées et poussent à la fabrication de produits à haut rendement financier, mais dont la durée de vie est souvent éphémère. Si cette affirmation est partiellement contredite par l’apparition et le développement de chaînes thématiques, l’analyse demeure pertinente en ce qui concerne les chaînes commerciales de la télévision hertzienne gratuite de masse, qui est la seule accessible pour les trois quarts de la population française actuellement[1]. 

La concurrence qui s’exerce entre ces médias, qui sont soumis aux mêmes contraintes, aux mêmes sondages et aux mêmes annonceurs, a tendance à les homogénéiser. Dans les rédactions on passe un temps considérable à parler des autres, ce qu’ils ont fait ou pas. Selon Pierre Bourdieu, cette sorte de jeu des miroirs produit un effet de clôture, d’enfermement mental. C’est ce que l’auteur appelle la circulation circulaire de l’information : « les informations et les objets télévisuels sont imposés aux téléspectateurs parce qu’ils s’imposent aux producteurs ; et ils s’imposent aux producteurs parce qu’ils sont imposés par la concurrence avec d’autres producteurs » pour des parts de marché de l’audience [Bourdieu, op.cité, p.30-31].

Les répercussions concrètes de l’emprise économique sur les modes de production de l’information à la télévision se manifestent à travers les stratégies des différents acteurs qui y sont impliqués. Ces stratégies sont calquées sur la volonté de maîtriser deux paramètres essentiels pour l’économie des chaînes, d’une part le coût de la grille des programmes, et d’autre part les publics ciblés. Pour une chaîne comme TF1, l’évolution de la performance du coût de la grille est mesurée à l’aune de sa capacité à attirer les cibles privilégiées de ses annonceurs publicitaires principaux.

Face à l’érosion globale de l’audience de la chaîne, due en partie à un effet mécanique de multiplication des chaînes concurrentes, qui est passée pour l’ensemble des téléspectateurs de 41% en 1992 à 35% de l’audience en 1999, la diminution de la part des « ménagères de moins de cinquante ans », cible privilégiée des annonceurs de TF1, a été plus limitée, passant de 40% à 37% pendant la même période. Ce phénomène explique la stratégie de la chaîne qui, face à l’érosion de son audience, s’efforce de mieux cibler son offre de programmes à destination des publics que recherchent ses annonceurs. D’où l’importance accordée à la production et l’achat des programmes qui s’adressent à ses cibles privilégiées, comme par exemple la catégorie variété et jeux qui en 1992 représentait 18% du coût de la grille de TF1, et qui est ramenée à 24% en 1999. De même, la catégorie fiction, qui comprend les séries, feuilletons et téléfilms, en dehors des films de cinéma, est passée de 19% à 28% du coût de la grille de programmes dans la même période. A l’inverse les dépenses pour la catégorie jeunesse ont diminué de 7% et celles concernant l’information ont très faiblement augmenté[2]. De cette façon même si la part d’audience de la chaîne diminue, sa rentabilité sur les cibles à fort potentiel publicitaire reste plus importante que sur l’ensemble de son public. L’effort constant de maîtriser le coûts de la grille des programmes, combiné à une politique de programmation qui privilégie les cibles les plus rentables sont les raisons qui expliquent la bonne performance économique du groupe qui affiche en 2003 un bénéfice net de 191,5M d’euros[3].

 

La question du format

Mais les contraintes économiques ne concernent pas seulement la programmation et le coût de la grille. Elles affectent la production au cœur même de la création des programmes, notamment en ce qui concerne l’information. Ainsi Julien Duval dans son étude de cas de l’émission Capital de M6, démontre combien les impératifs d’audience et la concurrence pour les parts de marché affectent les procédés même de travail des producteurs et des journalistes [Duval, op. cité, pp.267-297]. La programmation des thèmes d’émission prend activement en compte le calendrier, de façon à ce que les thèmes « tous publics » soient réservés aux vacances scolaires. De même, l’ordre dans lequel les reportages se succèdent au cours d’une même émission obéit à la nécessité de retenir le plus longtemps possible un public toujours susceptible de passer à la concurrence.

La façon dont sont présentés les différents reportages obéit lui aussi au « style » propre à l’émission, ce qu’aucun magazine d’information n’avait fait auparavant en France : les interviews durent rarement plus de quinze secondes ; la musique et les sons d’ambiance sont choisis et utilisés comme dans un clip musical ; les reportages sont construits comme des récits à suspense et évoquent des cas concrets, des situations familières à un grand nombre de téléspectateurs. La façon de travailler des journalistes de Capital est également très formatée puisque toutes les émissions sont composées de la même manière, en grands blocs de dix minutes, auxquels on applique des méthodes mises au point en matière de fiction, comme la rédaction des synopsis, l’unité de lieu, l’enchaînement des différentes séquences, le commentaire toujours utilisant les mêmes expressions.

La question du format, qui découle directement des contraintes économiques qui pèsent sur les médias, notamment celles liées au temps, est d’une importance capitale en ce qui concerne l’information. De nombreuses polémiques autour des traitements médiatiques jugés partiaux ou injustes sont en fait liées à la question du respect d’un format qui est imposé aux journalistes. Selon Cyril Lemieux, le remplissage défectueux du format est l’occasion de critiques très fortes de la part des autres intervenants sur la chaîne de production, notamment les supérieurs hiérarchiques et les programmateurs. Ce qui peut exposer les contrevenants à des sanctions et à des ruptures de coopération [Lemieux, 2000, p.394]. De cette façon, « que l’action du journaliste soit dominée par une atmosphère d’auto-contrainte ou plutôt, d’engagement, le lien qui l’unit à la visée commerciale, n’a pour ce journaliste rien d’obligatoirement immédiat, ni d’évident. Dans le cours même de l’activité, l’essentiel de ses intentions n’est pas nécessairement en effet de faire des ventes ou de l’audience, mais il est beaucoup plus pratique d’honorer au mieux un format. C’est en quelque sorte le format, et non plus le journaliste, qui est en charge de faire de l’audience ou des ventes » [ibid, p.394]. 

Toutes ces méthodes constituent, selon Julien Duval, une « invention sous contrainte », c’est à dire l’émergence des pratiques professionnelles qui obéissent à un certain nombre des contraintes qui sont, dans le cas de l’émission Capital, le fait d’une chaîne, M6, sans véritable ancrage dans le domaine d’information, sans légitimité dans le traitement de l’actualité et avec des moyens financiers limités face à une forte concurrence. Le succès d’une telle approche s’est confirmé par la longévité de l’émission, plus de dix ans maintenant, mais également ses taux d’audience élevés et une rentabilité assurée[4]. De cette façon, l’émission Capital a permis à M6 non seulement d’augmenter son capital économique à travers son succès commercial, mais également de croître son capital journalistique en obtenant la reconnaissance des professionnels.

 

3.2.2 L’introduction progressive du marketing dans la presse d’information

Cependant, la télévision n’est pas le seul média dans lequel les contraintes économiques affectent directement le processus de production et de mise à disposition de l’information. La presse est également largement dépendante des outils de mesure de son lectorat mais également des méthodes de marketing sophistiquées. La presse magazine féminine a été la première à appliquer de tels procédés, comme par exemple le fait de tester les thèmes abordés auprès de groupes de lectrices. Ces pratiques s’inscrivent dans un contexte plus général caractérisé par un double mouvement de segmentation des publics et de thématisation des contenus. D’où la montée en puissance en termes de diffusion des magazines spécialisés dans le domaine de l’information « people », c’est-à-dire traitant essentiellement de l’actualité des « stars » du petit écran, du sport et de la variété. Si une telle tendance est particulièrement visible en France en ce qui concerne la presse magazine, une tendance similaire gagne la presse quotidienne américaine depuis le début des années 80.

Ainsi, selon les études citées par Rodney Benson, au sein d’une partie significative des journaux américains un nouveau genre d’information « soft » commence à gagner du terrain, comprenant les rubriques « célébrités », « style de vie » et sport, mais également les rubriques économiques [Benson, 2000, p.109]. Cette tendance est corrélative avec, d’une part, la perte de contrôle familial et l’entrée en bourse des titres tels le New York Times et le Washington Post, et d’autre part l’affaiblissement de la séparation, au sein des journaux, entre la section rédactionnelle et celle de la publicité, ce mur séparant « l’Eglise et l’Etat », comme il est appelé aux Etats-Unis. La mise en cause de cette séparation s’exprime en France même dans des titres de presse tels le Nouvel Observateur ou Le Parisien avec la multiplication des rubriques de consommation, qui selon Valérie Patrin-Leclère, sont « prétendument sélectives mais à coup sûr promotionnelles, la citation des produits ou des marques dans le matériau rédactionnel intervenant en échange d’un investissement financier dans un espace explicitement publicitaire » [Patrin-Leclère, 2004, p.112]. 

 

Evolutions dans le traitement médiatique du fait économique

Depuis le début des années 90 ces méthodes de marketing à double sens, en direction du public et des annonceurs, gagnent du terrain dans les segments de la presse française qui auparavant n’y étaient pas attachés. C’est de cette façon que Julien Duval explique le succès du magazine économique Capital, lancé en 1990 par Prisma Presse [Duval, op.cité, p.209]. Dans ce cas, la dimension commerciale apparaît comme centrale dans la conception du mensuel, qui recourt de façon systématique aux méthodes de marketing comme la pratique intensive des sondages « vu-lu »[5].

Selon l’étude de J. Duval, les journalistes de Capital travaillent en étroite collaboration avec les services marketing qui interviennent dans le travail rédactionnel, les articles prenant d’abord la forme de synopsis pour être testés avant publication auprès de panels de lecteurs. Pour l’auteur, Capital procède à une forme de dépolitisation du journalisme économique, en n’abordant jamais des sujets traditionnellement présents dans la presse économique française, comme les questions sur la politique économique du gouvernement ou des grandes institutions comme le Fonds monétaire international ou la Banque centrale européenne [ibid., pp.190-191]. Des thématiques comme la grande consommation et les loisirs, ainsi que les présentations des entreprises à forte notoriété sont très souvent mises en avant par les journalistes de Capital, dont l’objectif explicite est de toucher le segment du public le plus rentable en termes de revenus publicitaires, à savoir la population de cadres à fort pouvoir d’achat.

Cette tendance, qui consiste en à un effort soutenu pour attirer les segments du public les plus rentables en termes publicitaires, touche également la presse dite de référence, c’est-à-dire disposant d’un capital journalistique important reconnu dans les milieux professionnels. Dans des journaux comme Le Monde ou Libération, l’emprise grandissante des logiques économiques s’accompagne d’une transformation du traitement de l’actualité économique. Comme le remarque Julien Duval, les pages économiques de ces quotidiens ne traitent essentiellement que de micro-économie, c’est-à-dire des stratégies économiques des grandes entreprises et des questions financières. Des thèmes qui jusqu’au milieu des années 80 étaient très peu traités par ces quotidiens [ibid., pp.222-223]. D’où la création des pages « Entreprises » en 1999 et du supplément « Argent » en 2001 par Le Monde, qui rencontrent un relatif succès auprès des annonceurs publicitaires.

Nous observons alors une convergence dans le traitement de l’économie entre les titres de la presse d’information générale et politique – dont le processus historique de constitution était corrélatif à l’affirmation d’une position critique vis-à-vis du monde économique – avec le traitement que réservent aux mêmes questions des titres plus conservateurs et traditionnellement plus proches des milieux économiques et financiers comme La Tribune et Les Echos. Cette tendance est mise en parallèle par l’auteur avec l’évolution de la structure du capital des journaux d’information générale en question, et notamment avec l’apparition d’investisseurs extérieurs : « tout se passe en fait comme si le traitement de l’économie dans les pages de ces journaux n’avait fait qu’enregistrer le nouveau rapport à l’économie de ces entreprises de presse. C’est au même moment que ces entreprises ont ouvert leur capital à des financements externes et connu […] des transformations internes les rapprochant plus qu’auparavant d’entreprises économiques privées ordinaires. Elles ont alors modifié, dans leurs pages, le traitement de l’actualité économique » [ibid., p.203].

 

Recherche des publics à fort pouvoir d’achat

Cette mutation de la presse est concomitante, comme dans le cas de la télévision, avec un changement significatif dans la nature des méthodes utilisées pour mesurer et qualifier son lectorat. Ainsi, l’étude de référence qu’est Euro-PQN[6], réalisée par Ipsos, tend à être progressivement supplantée par des études ad-hoc qui concernent un titre ou une catégorie de supports en relation avec des cibles spécifiques. 

C’est le cas de l’étude « La France des cadres actifs » (FCA), qui est effectuée tous les ans depuis 1986 par Ipsos avec 7 000 interviews stratifiés en 15 publics. Elle repose sur une méthodologie qui répond à des impératifs publicitaires portant sur un échantillon représentatif non pas en référence à la population française dans son ensemble, mais par rapport à « une population large de leaders économiques (l’ensemble des 6, 5 millions de cadres actifs résidant en France) ou bien sur des sous-populations répondant à des caractéristiques précises : cadres supérieurs d’entreprises, professions libérales, Décision Influence (cadres exerçant des responsabilités financières et/ou d’encadrement de haut niveau),  cadres administratifs, voyageurs aériens »[7].

Comme le rappelle Julien Duval, alors que pour les enquêtes traditionnelles comme celle effectuée par l’INSEE, et même Euro-PQN, l’échantillon utilisé est fondé sur les caractéristiques de l’ensemble de la population française, la probabilité de figurer dans l’échantillon de l’étude FCA pour un lecteur tend à être proportionnelle à son pouvoir d’achat [ibid., p.213]. Cette logique de représentation partielle est poussée à son extrême avec l’introduction dans l’étude FCA d’une catégorie supplémentaire à partir de 1998, baptisée « Décision Influence ». Il s’agit de pouvoir isoler au sein de l’audience globale la fraction du public qui participe aux décisions d’achat et d’investissement dans les entreprises. Cette fraction très minoritaire, à l’intérieur même de la population de cadres, représente non seulement son propre pouvoir d’achat, mais surtout celui des entreprises pour lesquelles elle travaille. De cette façon, elle constitue la cible privilégiée pour la publicité business to business, à savoir celle qui fait la promotion de tous les produits et services en direction des entreprises.

 Cet ensemble de catégories qui sont fondées essentiellement sur des critères économiques, comme le revenu, le capital ou le pouvoir d’influence dans les entreprises, se sont constituées progressivement en véritables outils à penser incorporés dans la pratique quotidienne des dirigeants de la presse et des journalistes. Si le travail de ces derniers n’est pas gouverné systématiquement par les études d’audience, a fortiori dans la presse de référence, il n’en demeure pas moins que de tels critères sont pris en compte d’une manière significative à des moments stratégiques. Cet effort d’ajustement de l’offre à la demande joue un rôle important quand il s’agit de réfléchir sur une nouvelle version d’un journal, de créer où de supprimer une rubrique, de recruter des journalistes spécialistes. 

A titre d’exemple nous pouvons se référer à la réforme du journal Le Monde qui est mise en chantier en 2004, à cause des récents mauvais résultats du journal. Effectivement, la structure économique du titre est mise en difficulté par une baisse de diffusion chronique, qui a atteint 4,4% de diminution de ventes en 2003 et jusqu’à 15 % pendant l’été 2004[8]. En réaction, la direction du Monde a prévu le départ de 100 salariés, sur 750, jusqu’à la fin 2004, et commence à réfléchir sur un certain nombre de changements éditoriaux[9]. Ces changements visent d’une part à redresser la diffusion du quotidien mais également à améliorer son audience auprès de la cible recherchée par les annonceurs publicitaires que constituent les lecteurs à hauts revenus.

Ainsi, le dimanche 12 décembre 2004, apparaît avec le quotidien un questionnaire concernant le supplément « Argent » que les lecteurs sont invités à remplir et à renvoyer au journal, pour « mieux (les) connaître et savoir ce qu’ (ils pensent) de ce supplément »[10]. Ce long questionnaire couvre deux pages entières du journal et comporte trente huit questions de nature différente. Outre les questions sur les habitudes de lecture (fidélité, durée), sur la concurrence (« quels autres quotidiens lisez-vous ? ») et sur les caractéristiques socioprofessionnelles, une place très importante est accordée aux questions qui concernent les contenus du supplément et le patrimoine des lecteurs. Ainsi, cinq questions sont dédiées à la connaissance de ce que les acheteurs du journal lisent effectivement au sein du supplément (« Dans Le Monde Argent lisez-vous ? » suivi par toutes les rubriques du supplément, « Dites nous pour chacun s’ils vous intéressent beaucoup, assez, pas tellement, pas du tout »). De la même manière, une quinzaine de questions visent à esquisser un profil économique très détaillé du lectorat, concernant le fait de posséder des actions, des obligations ou des valeurs immobilières, le fait d’être client de plusieurs établissements bancaires, le fait d’intervenir souvent sur le portefeuille d’actions, de disposer d’un chargé de compte comme intermédiaire ou de transmettre ses ordres par l’internet. Autrement dit, la plus grande partie du questionnaire est calquée sur les préoccupations des annonceurs publicitaires du supplément et vise à attirer davantage leurs cibles privilégiées en modifiant les contenus en conséquence.

Le même objectif est poursuivi au sein du Figaro, depuis le rachat de sa société éditrice Socpresse par le groupe Dassault et le changement de direction qui s’en est suivi. Dans un effort de redresser la diffusion du journal la nouvelle direction a fait appel à l’institut des sondages Sofres, pour évaluer l’adéquation du contenu du journal avec les attentes des lecteurs[11]. Il apparaît des résultats de l’enquête que la majorité des lecteurs interrogés souhaite voir les pages « Economie » du quotidien enrichies en thèmes micro-économiques, portant sur la vie des entreprises ou sur des questions pratiques comme les placements ou l’immobilier, au détriment des sujets macro-économiques et sociaux. Ces recommandations ont été prises en compte dans les changements éditoriaux décidés.

Cette tendance concernant la presse, et particulièrement la presse d’information politique et générale, est due également au phénomène de rétrécissement régulier de son lectorat, corrélatif avec un déplacement progressif des dépenses publicitaires vers d’autres médias, notamment la télévision, et le hors-média. Ainsi, selon les éléments rassemblés par Jean-Marie Charon, l’on remarque que la presse écrite dans son ensemble a perdu la moitié de ses recettes publicitaires en l’espace de trente ans, passant de 71,3% en 1970 à 37,1% en 2002 [Charon, 2003, p.88]. Et à l’intérieur du secteur de la presse ce sont les journaux quotidiens qui sont le plus touchés, particulièrement ceux de la presse nationale. A défaut d’une audience de masse, à la même échelle que la télévision hertzienne par exemple, les titres en question s’orientent davantage vers un public constitué de cibles à fort pouvoir d’achat, plus limités en volume, afin de compenser la quantité insuffisante du lectorat par sa qualité en termes publicitaires.  

 

3.2.3 Des pratiques renforcées sur l’internet

Ces pratiques, qui tendent à devenir habituelles dans la presse, sont davantage appliquées par les sites d’information. Ceci parce que la nature interactive du support permet de collecter et de traiter de telles informations plus facilement en recourant à des questionnaires en ligne. C’est le cas particulièrement en ce qui concerne les sites spécialisés à des cibles à fort potentiel publicitaire, comme par exemple les supports qui sont dédiés à l’actualité technologique, à l’informatique et à l’économie comme Le Journal du Net ou ZDNet, et qui s’adressent prioritairement à un public de cadres. Le fait de connaître les contenus les plus lus est également grandement facilité par la nature même du support qui permet à tout moment de connaître le trafic spécifique généré par une rubrique ou un article sur un thème précis. Ce qui fait écrire à Emmanuel Parody, rédacteur en chef du site ZDNet.fr, que « l’analyse des logs (logiciels permettant de connaître le nombre d’internautes à avoir visualisé une page web) est en effet impitoyable sur les articles que l’on ne lit pas jusqu’au bout, sur les sujets qui ennuient, sur les chroniques sans beaucoup de lecteurs […] la tentation est grande dans ce cas de tailler dans le vif, de déplacer les rubriques, de limiter les thèmes abordés. Ceci parce que sur la base d’un calcul à courte vue, les revenus publicitaires d’un site gratuit sont liés étroitement au volume de pages vues. Pour beaucoup de petits sites en quête de rentabilité, il est suicidaire de s’autoriser des contenus à faible audience »[12]. Ainsi la question de l’audience et du marketing éditorial sur l’internet apparaît comme une des problématiques centrales de la transposition du modèle médiatique en ligne.

 

L’ambiguïté de la notion de l’audience en ligne

Selon Josiane Jouët, nous pouvons penser que l’architecture de l’internet défie en elle-même l’application de la notion de l’audience. Ceci parce que l’internet n’est pas un média de masse s’inscrivant dans une logique de diffusion, mais un hypermédia interactif qui s’inscrit dans une logique de connexion. De plus, c’est un pluri-média « qui donne accès à une multitude de services d’information, de loisirs, de jeux, de transaction, de commerce ou de communication interpersonnelle [ce qui] lui confère un caractère globalisant qui fait éclater les sphères du travail et de l’échange communicationnel » [Jouët, 2003, p.203]. Cependant, le financement d’une partie importante des structures qui s’activent dans le secteur de l’information en ligne repose pour l’essentiel sur la publicité. Ce qui suppose une connaissance des publics qui consultent les sites internet, et par conséquent implique nécessairement des outils et méthodes de mesure de l’audience en ligne. La mesure de l’audience sur l’internet n’est donc pas simplement la transposition des méthodes appliquées dans la presse et l’audiovisuel, puisque comme l’indique Josiane Jouët, elle se greffe d’emblée sur deux autres logiques, celle de la mesure de trafic des télécommunications et celle de numérisation de l’informatique [ibid., p.203].

Ainsi, avec l’apparition de l’internet grand public à la fin des années 90, cet espace médiatisé qui à l’origine n’était pas exploité commercialement a été intégré dans la sphère médiatique marchande, avec notamment l’apparition de la publicité en son sein. Cette mutation de l’internet a mis en évidence le fait que les mesures de trafic utilisés jusque-là, qui n’avaient pas été créées à l’origine avec une visée directement commerciale, ou du moins publicitaire, n’étaient pas à même de soutenir un modèle économique reposant essentiellement sur un financement indirect. Ce qui a conduit à une combinaison de deux méthodes de mesure, celles qui proviennent des sciences sociales et du marketing, notamment avec l’utilisation de panels d’internautes qui consentent à l’installation d’un logiciel espion sur leur ordinateur ; il s’agit d’outils centrés sur l’usager (user centric). Mais également celles qui proviennent des télécommunications et de l’informatique, notamment toutes les procédures de capture et de suivi du trafic ; il s’agit des outils centrés sur les sites (site centric).

Progressivement, tous les outils et méthodes qui permettent de mesurer et d’apprendre sur les usagers de l’internet, qui constituent l’audience des sites, ont acquis une importance capitale du point de vue économique. Car ce sont eux qui définissent l’ampleur et la qualité du public qui peut être potentiellement touché par un site d’information donné, et par la même l’intérêt commercial de ce dernier pour les annonceurs publicitaires. Par conséquent, les mesures d’audiences et les moyens de collecte d’information sur les usagers constituent l’un des principaux enjeux de l’économie de l’information sur l’internet en influençant partiellement l’étendue des entrées financières des sites. Selon Josiane Jouët, « ces dispositifs conjuguent d’une part du tracking avec des logiciels de capture qui fournissent aux sites souscripteurs des données précises sur leur fréquentation, les caractéristiques des visites du site, l’assiduité des internautes et, d’autre part parfois du profiling qui vise à une qualification de l’audience » [ibid., p.208]. Comme dans le cas de la presse et de l’audiovisuel, ce renforcement des impératifs d’audience, concomitant avec le changement de la structure financière des médias, peut conduire potentiellement à un renforcement au sein de l’information en ligne des thèmes les plus commerciaux, au détriment de l’information générale et politique traditionnelle, et une mise en question de la séparation entre services commerciaux et services rédactionnels, particulièrement au sein des nouveaux acteurs comme les portails généralistes. Ceci d’autant plus qu’au sein de l’internet, le marketing éditorial est renforcé par la facilité technique avec laquelle il peut être mis à contribution, mais également par les caractéristiques propres d’un certain nombre d’acteurs qui ne sont pas particulièrement attachés dans leur fonctionnement concret aux pratiques professionnelles traditionnellement dominantes dans le champ journalistique.  

 

3.2.4 Les mesures de l’internet

Tout système de financement indirect par la publicité repose sur un dispositif de mesure fiable, ou du moins considéré comme tel par les acteurs du marché, qui vise à connaître le public du média et à comparer les performances des concurrents. Comme le remarque Josiane Jouët, l’internet repose sur le paradoxe suivant : « il est le média qui a priori se prête le mieux à la connaissance de ses publics, car l’usager en ligne laisse quantité de traces, mais il est à la fois le média le plus complexe à mesurer » [ibid., p.203]. Ceci en raison de la complexité des applications qu’il met en œuvre lors de son utilisation. Afin d’appréhender les enjeux d’une telle configuration nous allons nous efforcer par la suite de présenter brièvement les principales mesures de l’internet.

Lors d’une consultation d’un site internet plusieurs éléments peuvent faire l’objet d’une mesure. Il peut s’agir de visites, qui représentent le trafic du site et renvoient à la logique des télécommunications. La visite est définie comme la succession de pages vues sur un même site qui commence lors de la connexion et se termine par le déplacement vers un autre site, le changement de navigateur ou d’identifiant, ou une période d’inactivité qui excède le seuil de trente minutes[13].  Il peut également s’agir de requêtes, qui représentent l’interaction de l’internaute avec le serveur qui héberge le site et sur lequel sont stockées les informations numérisées. Une requête est effectuée par un clic d’appel d’une page directement à partir du champ d’adresses du navigateur ou au moyen de liens hypertexte.

Les requêtes renvoient partiellement à une logique d’informatique, puisque elles font intervenir le langage HTML et d’autres applications et logiciels. La réponse à une requête constitue un ensemble de fichiers informatiques qui forment une page web visualisée à l’écran de l’ordinateur, qui peut être différente selon la provenance de la requête. La particularité de l’internet réside précisément dans cette possibilité d’interaction qui consiste pour un serveur de renvoyer des pages différentes pour la même requête selon des critères prédéfinis, par exemple en ce qui concerne les publicités qu’elles comportent. Une page internet visualisée qui répond à une requête de la part de l’internaute et qui comporte de la publicité constitue une page vue avec publicité (PAP), ce qui est le principal indicateur utilisé par les régies et les annonceurs. Enfin, les mesures de l’internet peuvent concerner des sessions de « surf » qui permettent d’observer le comportement de navigation des usagers de l’internet. Cette notion renvoie à une logique d’audience, qui trouve son origine dans les médias de masse, puisqu’elle fait intervenir la notion de concurrence entre plusieurs sites pour attirer le public.

 

User-centric et site-centric

Les différentes notions précédemment décrites ont donné lieu à des mesures différentes. Les principales familles des mesures sont celle centrées sur l’utilisateur (user-centric) et celles centrés sur le site (site-centric). Les mesures centrées sur l’utilisateur comptabilisent de l’audience et trouvent leur origine dans la technique classique de sondages, avec le recrutement d’un échantillon représentatif de la population internaute. Les personnes qui acceptent de faire partie de ce panel consentent à l’installation d’un logiciel espion dans le disque dur de leur ordinateur qui enregistre de manière passive tous les déplacements et actions effectués par les utilisateurs lors d’une séance de consultation. Comme pour le système de Médiamat de la télévision, afin d’obtenir des données par personne, les différents membres du foyer doivent s’identifier lors de la connexion. Le principal avantage de cette mesure est la possibilité de recouper les pratiques en ligne (sites visités, services utilisés), observées de façon passive et donc particulièrement fiable, avec les caractéristiques socioprofessionnels des internautes. Ainsi, nous pouvons obtenir une corrélation relativement précise entre les profils socioprofessionnels et les usages effectifs de la population internaute en ce qui concerne les sites qui disposent d’une audience importante. Inversement, le principal problème de la mesure user-centric est celui de la non représentation des petits sites, dont la masse critique d’audience n’est pas suffisante pour être relevée. Un autre point problématique de cette méthode est la représentativité du panel, notamment en ce qui concerne les lieux publics de consultation (cybercafés, universités, bibliothèques), ainsi que les consultations depuis l’étranger qui ne sont pas comptabilisées. Après le rachat de ses concurrents dans ce secteur, depuis la fin 2002 le panel de Médiametrie/Nielsen-NetRatings est le seul disponible en France. Il est constitué d’un échantillon représentatif de 10 000 internautes et couvre environ 1 600 sites par mois.

Les mesures centrées sur le site comptabilisent du trafic et permettent au gestionnaire de connaître sa fréquentation. Historiquement, elles sont les premières mesures qui ont été mises en place sur l’internet. Il y a deux sortes de mesures site-centric : celles qui utilisent des témoins de connexion (cookies) et celles qui utilisent des marqueurs et des fichiers de connexion (logs). Un témoin de connexion permet de distinguer les différents postes connectés sur le serveur d’un site internet. Normalement, il ne doit pas comporter des données nominatives, mais il existe des structures qui en font un usage abusif. En raison de leur caractère intrusif, puisque ils logent dans le disque dur de l’internaute, les cookies sont souvent l’objet d’opposition de la part des usagers, qui les évitent soit en réglant le navigateur à ne pas les accepter, soit simplement en les effaçant de manière régulière. D’où la fiabilité relativement faible de cette mesure quand il s’agit de comparer le trafic de plusieurs sites différents.

En ce qui nous concerne, nous allons utiliser dans notre travail essentiellement des données concernant l’audience de sites internet mesurée en nombre de visiteurs uniques. Ceci afin de pouvoir confronter les chiffres de l’audience aux données concernant les caractéristiques socioprofessionnelles des internautes. Cependant, étant donné que les résultats du panel de Médiamétrie ne sont pas librement accessibles pour tous les sites que nous avons inclus dans notre échantillon de recherche, nous allons nous tourner vers les mesures site-centric là où il sera nécessaire. 

  

3.2.5 Les mutations observables de la notion de l’audience en ligne

En dehors de la question des outils de mesure, l’émergence des modes de diffusion de l’information sur l’internet est accompagnée par une série de mutations de la notion de l’audience.  La première mutation de la notion de l’audience que nous avons pu déceler lors de notre recherche de terrain prend ses racines dans les possibilités techniques offertes par l’internet. Effectivement, l’audience telle qu’elle peut être mesurée sur le web n’est plus seulement le nombre de personnes ayant utilisé un dispositif d’information, ni la part de marché d’un public donné, comme cela peut l’être au sein de la presse et l’audiovisuel. Il s’agit plutôt d’un ensemble de données complexes, collectées au moyen des procédés divers, dont certains comme la personnalisation des pages d’information, ont directement trait avec les modalités d’accès à l’information.

Autrement dit, la question principale concernant cette audience n’est pas seulement de savoir qui a consulté quel média et à quel moment, mais également comment, venant d’où pour aller où, en achetant quoi et ainsi de suite. Des paramètres comme les centres d’intérêt, les parcours de navigation et d’autres encore peuvent être utilisées afin de permettre aux responsables marketing de la structure qui collecte ces données « une insertion dynamique des publicités qui peut varier en fonction de la cible et en fonction de l’exposition préalable de l’internaute aux messages publicitaires » [ibid., p.208]. Ce trait est si fondamental que des responsables des sites d’information comme ZDNet.fr déclarent que la ressource la plus importante dont ils disposent, et qui est susceptible de rapporter de revenus financiers, est justement la base de données qui comporte toutes ces informations sur les internautes qui visitent le site.

Cette base de données, fournie entre autres par les cookies, est d’autant plus utile que les personnes qui visitent un site d’information ont plus de chances d’y revenir et donc d’y rapporter des données qui peuvent être comparées à la dernière collecte effectuée. Cette notion d’affinité constitue le principal argument utilisé par les différents groupements (Online Publishers Association Europe, GESTE) qui essayent d’attirer les annonceurs vers les sites-médias, au dépens des portails généralistes. C’est dans ce contexte qu’un nombre croissant des journaux en ligne américains, dont le New York Times, fonctionnent sur un mode d’inscription gratuite auprès du site au moyen d’un questionnaire comportant différentes informations, dont une adresse électronique valide. Dans cette configuration, l’aspect qualitatif de l’audience est autant, sinon plus important que l’aspect quantitatif. Ce qui peut conduire à l’aggravation de la tendance qui incite les médias à se concentrer sur les cibles rentables en termes publicitaires, c’est-à-dire les populations à fort pouvoir d’achat. D’autant plus que ces dernières sont surreprésentées au sein de la population internaute. Ainsi, la tendance à l’ajustement permanent de l’offre d’information à la demande supposée du public recherché, telle qu’elle s’exprime au moyen de différents outils de mesure de l’audience, se trouve également facilitée par les caractéristiques techniques et économiques de l’internet.  

 

La notion de consultabilité

L’autre mutation de la notion de l’audience que nous avons pu relever lors de notre recherche de terrain découle de la possibilité de mesurer tous les sites internet de la même manière, quelle que soit leur origine. Ainsi Contrôle Diffusion, malgré son enracinement historique dans le secteur des médias, certifie le trafic des sites d’information mais également de nombreux sites institutionnels. De la même manière la mesure de l’audience établie par le panel Nielsen-Net Ratings de Médiametrie comporte différentes catégories de sites, dont la catégorie « News & Information ». Au sein de cette sous-partie des résultats du panel, les deux premiers sites pour le mois d’octobre 2003, en termes d’audience, sont le site des Pages Jaunes et celui de MeteoFrance, suivis par ceux du Monde et des pages actualité de Yahoo[14]. La liste comporte également des sites comme Toutgagner.com, Meteo Consult et Cityvox, entremêlés aux sites-médias et aux pages d’actualité des portails généralistes. Cette mise en concurrence directe des supports dont la finalité est différente n’est pas possible en dehors de l’internet.

En effet, il est difficilement envisageable de voir les Pages Jaunes effectuer des études de lectorat et les comparer avec celle du Monde ou avec les résultats de l’audience de TF1. Néanmoins, sur l’internet tous les sites qui reposent sur un modèle de financement indirect se concurrencent au sein du même marché publicitaire, ce qui permet aux professionnels du secteur d’effectuer des découpages de la sorte. Ainsi, la notion de l’audience, qui a pris corps dans un contexte spécifique de l’essor des médias audiovisuels de masse, évolue sur l’internet vers une sorte de mesure universelle de notoriété ou de consultabilité, sans que cela implique nécessairement une structure de nature médiatique. Sur ce point, nous pouvons faire référence au concept de relations publiques généralisées, qui consiste dans le « recours en voie de généralisation par les Etats, les entreprises et les grandes organisations politiques et sociales, aux techniques de gestion du social et aux techniques de communication, ainsi que sur l’engagement de stratégies de communication de plus en plus perfectionnées » [Miège, 1997, p.121]. Dans ce contexte, l’internet n’offre plus seulement le support de cette généralisation, mais également les moyens d’en mesurer la portée comme prolongement de l’espace médiatique.

 

Des mesures « communautaires » : retour de l’indice de satisfaction ?  

La troisième mutation de la notion d’audience que nous avons relevé lors de notre recherche est l’apparition de nouveaux modes de mesure de l’intérêt ou de la pertinence des pages web d’information, au moyen d’outils novateurs. Effectivement, depuis l’apparition des weblogs aux Etats Unis, il y a un certain nombre d’années, le phénomène s’est accentué et s’est développé également en Europe. Il s’agit de sites internet personnels qui sont fondés sur le principe de la périodicité, à savoir l’ajout régulier de contenus qui peuvent prendre la forme d’un journal, des chroniques ou des commentaires. Des outils spécifiques à la mise à jour de ces pages web ont étés conçus (p.e. le SPIP en France), qui permettent aux webloggers d’intégrer de contenus en provenance d’autres sites, soit d’autres weblogs, soit des sites d’information, au moyen de liens hypertexte. L’utilisation du meta-langage RSS permet de tenir à jour ces liens dès qu’une nouvelle information apparaît sur le site source. Ainsi, un weblogger expérimenté peut entretenir des pages qui comportent ses propres commentaires, ceux d’autres personnes, dont il apprécie la qualité, mais également de liens vers les derniers articles parus sur telle thématique ou sur tel support d’information qu’il affectionne.

 L’augmentation du nombre de weblogs régulièrement mis à jour, le développement de liens de communauté entre leurs créateurs ainsi que l’évolution des outils techniques, ont conduit à la convergence entre les différents secteurs de l’internet, sphère marchande et non marchande, sites d’information et sites personnels, au moyen d’outils de mesure comme Technorati[15]. Ce système est un moteur de recherche qui suit en permanence quelque deux millions de sources du World Live Web, c’est-à-dire la partie de l’internet qui n’est pas statique, mais mise à jour régulièrement. La recherche se fonde sur ce que les créateurs de l’outil appellent des « conversations », c’est-à-dire des contenus écrits, comportant des liens hypertextes vers d’autres sites. Ainsi, une recherche à travers ce moteur peut s’effectuer soit sur une thématique, les résultats comportent alors des liens vers des articles parus dans les weblogs sur le sujet ; soit sur une source, les résultats comportent alors la liste des weblogs qui comportent des liens vers cette source.

 Cette mutation est de nature hybride dans la mesure où elle se trouve aux frontières de la notion d’audience et celle de la recherche d’information et qu’elle brouille les frontières entre offre et demande, puisque c’est cette dernière qui influe directement sur les moyens et l’étendue de la mise à disposition d’une information. De cette façon, plus une information est lue, plus elle est susceptible d’être « discutée » au sein des blogs et, dans un mouvement circulaire, elle sera davantage mise en avant dans des outils comme Technorati. Ce qui conduit à une diffusion « virale » des thèmes et des questions débattues qui pèse directement sur l’audience des sites d’information. En fait, il s’agit d’une certaine manière du principe de bouche à oreille qui prend corps dans un cadre médiatisé, avec une forte composante de ce qu’on pourrait appeler un « indice de satisfaction » ou un jugement qualitatif de la part des lecteurs-blogers qui renvoie aux premières mesures de l’audience de la télévision en France et l’utilisation du carnet d’écoute auto-administré.

 



[1] Selon le CSA, l’offre multichaîne atteint en 2003 25 % des 23,3 millions de foyers équipés d'une télévision en France. Source : La Lettre du CSA n° 177 - Octobre 2004, accessible sur : http://www.csa.fr/actualite/dossiers/dossiers_detail.php?id=19355&chap=2515

[2] Source : Le Champion Rémy et Danard Benoît, Télévision de pénurie, télévision d’abondance, La documentation Française, Paris, 2000.

[3]Source : Rapport annuel TF1 2003, accessible à l’adresse : http://www.tf1finance.fr/chiffres.htm

[4] Le 28 novembre 1999 par exemple l’émission réalise l’une de ses meilleures audiences, 23,7% des parts de marché avec 5,87 millions de téléspectateurs. Source : [Duval, 2004, op.cité].

 

[5] Le score « vu-lu » est un indicateur d’efficacité publicitaire utilisé dans le domaine de la presse pour mesurer la mémorisation. Le score de vu-lu est établi en présentant les annonces publicitaires à un lecteur en lui demandant ce qu’il se souvient avoir vu ou lu.

 

[6] L’étude en question comporte une partie consacrée à la presse quotidienne et une autre consacrée à la presse magazine. La première porte sur 11 titres nationaux, 71 régionaux et 174 titres de la presse hebdomadaire régionale. Le recueil d’information est effectué par téléphone auprès d’une population de 15 ans et plus appartenant à des ménages ordinaires. Les interviews sont reparties sur toute l’année sur un échantillon total des 21 700 répondants. La définition de l’audience appliquée est la suivante « avoir lu, parcouru ou consulté chez soi ou ailleurs tel journal ». La seconde porte sur plus de 150 titres, hebdomadaires et mensuels pour la plupart. L’échantillon total est de 20 100 individus. La nature et l’ampleur du questionnement exigent la situation de face à face au domicile de la personne interrogée. 

[7] Source : http://www.ipsos.fr/SolutionsIpsos/content/818.asp?rubId=29

[8] Source : « La presse dans la tourmente », Emannuelle Giulani, La Croix, lundi 20 septembre 2004. Cette baisse du lectorat et les tensions provoquées par les changements en préparation ont abouti à ce que Edwy Plenel, qui avait été nommé directeur de la rédaction du Monde en février 1996, a présenté sa démission, lundi 29 novembre 2004. Source : « Edwy Plenel quitte ses fonctions de directeur de la rédaction du Monde », Le Monde, mardi 30 novembre 2004, non signé.

[9] Voir à ce sujet « La reforme selon Jean- Marie Colombani », Thiébault Dromard, Le Figaro Economie, vendredi 26 novembre 2004.

[10] Sauf indication contraire les citations proviennent du questionnaire.

[11] « La nouvelle direction du Figaro peine à convaincre sa rédaction », Bertrand D’Armagnac, Le Monde, vendredi 28 janvier 2004. 

[12] Message adressé à la Jliste le 26 septembre 2000, liste de discussion dédiée au journalisme en ligne supprimée depuis. Cité par Fortin Pascal, « Le journalisme en ligne au risque de l'argent », Institut Français de Presse - Publications en ligne, 2000, accessible à l’adresse http://www.u-paris2.fr/ifp/recherche/ activites/publications/rec_act_lig$fortin01.pdf

 

[13] CESP, Terminologie Internet, mai 2002, (cf. Annexe 5).

[14] Source : Résultats du panel de Médiamétrie/Nielsen-NetRatings pour la catégorie « News & Information » octobre 2003, obtenue auprès de François-Xavier Hussherr, responsable du département internet de Médiamétrie, (cf. Annexe 4).

[15] http://www.technorati.com

Tables des matières - précèdent - suivant