e-croire ou pas, telle est la question | Mai 2010


Les pros de l'info à l'épreuve des réseaux numériques

Avec Internet, l’information n’est plus l’apanage du journaliste. Ces outils rajoutent aux traditionnels risques d’instrumentation et de manipulation celui du temps réel. Comment, dès lors, relever le défi de raconter une histoire objective dans laquelle le lecteur va investir sa confiance?

Grégoire Nappey, 24Heures, rédacteur en chef adjoint chargé du multimédia
Luc Petitfrere, responsable du NewDesk Edipresse

Vous devez rechercher des informations fiables en utilisant Internet. Comment procédez-vous?
Tout dépend des délais et de la nature de l’enquête: cherche-t-on quelque chose de précis ou est-on au tout début de l’enquête sans trop savoir ou nous allons? Ces caractéristiques vont surtout déterminer le temps consacré à la recherche. La première phase exploratoire va consister à utiliser nos outils de recherche internes complétés par ceux issus d’Internet à la fois pour savoir où chercher (par exemple utiliser des bons mots clés) ou se faire une idée du sujet (identifier les acteurs, les problèmes clés, les dates, les événements).

Nos propres outils sont essentiellement nos archives, les agences de presse spécialisées et nos contacts.

Les outils « externes » issus d’Internet sont

  • les annuaires généralistes (trouver les sites classés dans des catégories, puis trouver les catégories associées afin d’en extraire les mots clés qui seront utilisés dans les moteurs de recherche)
  • les réseaux sociaux
  • les annuaires de blogs
  • des dictionnaires et des encyclopédies pour trouver les définitions, les experts, les synonymes et autres liens utiles
  • les moteurs de recherche

La deuxième phase va consister à hiérarchiser ces informations selon les buts de l’enquête et à vérifier (par exemple éviter les problèmes liés aux homonymies), confronter les informations jugées intéressantes.

La troisième phase sera d’atteindre les personnes concernées ou expertes pour les interviewer.

Avec une telle méthode, vous n’êtes donc pas victimes de la Googlelisation des recherches sur Internet?
C’est vrai que Google semble représenter aujourd'hui une sorte de lieu rassurant de par son caractère «unique». Ses contours semblent suffisamment larges et établis pour que l'utilisateur n'aie pas l'impression de se perdre dans le cyberespace. Mais Google choisit ses sources et les hiérarchise. Qu’il n’indexe pas tout le Web n’est pas si important si on utilise d’autres outils. Du point de vue journalistique, il apporte une valeur ajoutée. Pour répondre à votre question, nous nous attachons effectivement à éviter la «ercherche unique» à travers «l’outil unique». Pour cela des formations sont dispensées en interne. Elles sont destinées à éviter le manque d’efficacité dans les recherches d’informations fiables: requête peu préparée, peu de mots clé utilisés, pas de distinction entre les types d’outils, pas de perception du Web invisible ou profond, rapidité de l’outil privilégiée, peu d’utilisation des opérateurs logiques…

Dans la recherche de la preuve, Internet focalise-t-il trop l’attention des journalistes au détriment des autres accès, des autres sources plus traditionnelles?
Oui il y a un risque. Cela dit, il est cependant évident que plus la source est digne de confiance (par exemple une info d’une Agence de Presse vs une source comme www.bakchich.info), moins le journaliste va rechercher de preuves. Le travail de preuve est supposé avoir été fait. D’autre part, un titre comme 24heures aura les moyens de vérifier, de par son ancrage local et son réseau de correspondants, les informations sans passer par Internet.

Le «temps réel» d’Internet n’expose-t-il pas le journaliste à la manipulation, à la rumeur?
Les NTIC nous permettent au contraire de vérifier plus facilement les sources. Eviter la manipulation fait partie des compétences-clés du journaliste. Par ailleurs, notre intérêt n’est pas de diffuser des rumeurs. Pas plus hier que maintenant. Sur Internet, il y a plus d’audience, il y a un effet caisse de résonance, le droit à l’oubli n’existe pratiquement pas... Tout ceci pousse le journaliste à être encore plus vigilant.

Les sources utilisées après l’émergence massive d'Internet ont-elles évolué? Comment?
Avant, l’essentiel de nos informations reposait sur des contacts humains. Certaines données (par exemple les bibliothèques, les tribunaux, les cadastres) étaient certes «accessibles» mais il fallait souvent se déplacer. Aujourd’hui, les sources n’ont pas vraiment changé mais elles sont plus faciles d’accès, leur rang d’utilisation peut effectivement avoir été modifié et le journaliste va se déplacer de manière beaucoup plus ciblée.

Ce qui a changé ce sont les rapports aux sources, en particulier humaines. Grâce aux NTIC qui vont faciliter son travail en amont, le journaliste est dans une position plus favorable par rapport aux contacts humains. Il va pouvoir poser une question du type «Confirmez-vous que les faits se sont déroulés de cette manière?» plutôt que «Que s’est-il passé?» Cela va le mettre dans une position de force. De même, il va plus facilement «surprendre» son interlocuteur car il se sera bien informé. En plus, l’utilisation des NTIC lui permettra d’agir vite pour éviter que les individus puissent organiser leur défense. Enfin, grâce à son travail préalable sur «Internet», le journaliste va diminuer son risque de dépendre d’une seule source spécifique pour continuer son enquête. Au final, pour le même temps de travail sur une enquête, il va «densifier» et fiabiliser les résultats.

Demandez-vous à vos journalistes de remonter toutes les informations, au risque de devoir traiter plus d’informations, ou uniquement ce qu’ils ont pu prouver, au risque de laisser filer des indices ou des informations potentiellement intéressantes?
Dans notre métier les enjeux décrits dans votre question sont un peu différents. Il y a toujours un arbitrage à rendre entre degré d’urgence/pertinence. Les NTIC ont apporté les contraintes du temps réel dans le quotidien du journaliste. Dans certaines situations d’urgence nous pouvons publier une information incomplète, dont une partie est déjà avérée mais qui doit être complétée les jours suivants. D’autres fois, le correspondant écrit un article uniquement sur la base d’indices. Sans preuve il ne sera pas publié. Il faut au moins deux sources fiables. Mais ces indices peuvent permettre de découvrir un sujet nouveau. Notre rôle est de raconter des histoires réelles sans dire de bêtises. Les journalistes vérifient leurs informations et doivent tendre au maximum vers l’objectivité (pas forcément la neutralité); c’est leur métier. Les correspondants sont également formés pour ça. Ne pas le faire c’est s’exposer à des condamnations devant des tribunaux, devant des instances professionnelles mais surtout saper notre crédibilité auprès du public.

Face à une quantité importante d’information convoyée par Internet, il faudrait idéalement posséder ou élaborer une thèse avant de collecter et  dechercher des informations ce qui permet de faciliter le travail de preuve par la suite. Qu'en pensez-vous?

Pour faire court: plutôt non si vous êtes dans l’actualité, plutôt oui si vous êtes dans l’enquête et l’investigation. Dans l’actualité nous sommes dans un rapport avec l’urgence et nous traiterons des faits dans une posture réactive. En revanche, l’enquête journalistique, à la manière de l’enquête policière ou même de la recherche scientifique, est fréquemment la vérification d’une hypothèse. Les flux d’informations que vous mentionnez ont plutôt renforcé cette méthode dans la profession car elle permet au journaliste de garder le cap au fur et à mesure qu’il accumule les faits issus d’Internet ou autre. La dernière information obtenue ne doit pas «dégrader» ce qu’il sait déjà mais être mise en perspective.

Y aurait-il un outil idéal pour gérer, valider ces informations qui entrent en permanence dans vos rédactions?
Aujourd’hui beaucoup de données ouvertes sont accessibles par Internet et font l’objet de traitement automatisé (compilation des flux RSS, alertes). Ce qui a changé ce sont les emails dont le traitement est très chronophage malgré un système de filtrage qui en élimine près d’un tiers. Du point de vue du journaliste, il n’y a pas, pour le moment, d’outil idéal. Le besoin est d’aider le journaliste à traiter ces flux d’informations dans une échelle de temps de l’ordre de l’heure. Il existe un outil théorique basé sur des systèmes experts qui crée des liens entre des faits, des informations dans un périmètre thématique donné. Ces informations peuvent être de petits événements mais constituer des signaux faibles d’un événement à venir plus important.

Ce travail d’associer des événements, même mineurs, entre eux est effectué aujourd’hui par l’intuition humaine. Internet a-t-il favorisé ou au contraire diminué le rôle de l’intuition dans la collecte d’informations fiables? En amont de la recherche? En aval?
L’intuition est toujours aussi prépondérante sinon plus. On dira qu’elle pèse pour 50%. Avec les mêmes outils, les mêmes données, un journaliste expérimenté – et probablement donc plus «intuitif»  – arrivera plus vite à valider une idée par des faits objectifs. Ne serait-ce que face à une simple recherche Internet.  Que fera-t-il face aux centaines de documents proposés? Certes, les premiers documents lui donneront rapidement des renseignements. Mais après? Va-t-il traiter l’ensemble des documents? Va-t-il se limiter aux trois premières pages au risque d’une vision partielle et partiale (les premiers résultats peuvent être le fruit d’un travail de référencement de la source elle-même)? Dans cet exemple, son intuition, son expérience va lui permettre de rebondir vers des informations plus pertinentes. Dans des situations plus complexes elle aura encore plus d’importance. L’important n’est pas tant de trouver des infos que de se poser les bonnes questions lesquelles permettront de repérer l’info pertinente.

Quel serait alors le profil d’une personne dont le rôle serait de rechercher de l’information fiable sur Internet? Une bonne connaissance du marché? Des outils? Un solide background méthodologique? Un ex de la police scientifique ou des services secrets?....
D’abord une bonne culture générale et une curiosité permanente qui va justement «alimenter  ses intuitions. Ensuite beaucoup de méthode car effectivement cette personne doit traiter beaucoup d’informations.

 Bibliographie : L’enquête par hypothèse : manuel du journaliste d’investigation : Mark Lee Hunter - Décembre 2009


Hélène Madinier, responsable du Master of Advanced Studies HES-SO en intelligence économique et veille stratégique 

Pouvez-vous nous présenter les études dont vous êtes responsable?
La HEG de Genève propose une formation continue, cumulative et en plusieurs étapes: un CAS, certificat de 6 mois, puis un DAS, diplôme d'une année environ, et enfin d'un MAS, qui ajoute au CAS et au DAS le travail de diplôme. D'après l'enquête que nous avons réalisée sur les pratiques de veille en Suisse et d'après les projets de recherche appliquée que nous menons régulièrement sur le sujet, nous avons remarqué qu’il y avait une forte pratique empirique mais peu de méthode, et par ailleurs un manque de moyens, des difficultés à trouver des outils, des sources adaptées, ainsi qu'à exploiter les informations trouvées.

Comment procède une entreprise pour  rechercher des informations fiables sur une personne et ses réseaux?
Une entreprise procède beaucoup de façon informelle. Elle fait appel à telle personne qui connait telle personne, etc. Ce sont donc souvent ses propres réseaux: ses clients, ses concurrents, ses fournisseurs, ses relations personnelles. Cela compte pour une bonne partie de ses recherches d’informations. L’autre source, c’est Internet, avec les moteurs et notamment Google. Les gens ne pensent pas forcément non plus à utiliser les agrégateurs, ni les réseaux sociaux pour des raisons professionnelles. Ca va venir… Ce sont en tout cas les premières constatations que l'on peut tirer d'un projet de recherche en cours, et des interviews menées récemment. Ce projet concerne plus spécifiquement les PME. Les grands groupes ont souvent des services plus spécialisés. Ce sont donc plus les PME qui n’ont pas de service ad hoc, et qui ont une connaissance du web qui reste avant tout un «moteur de recherche».

L’utilisation d’Internet n’a t-elle pas eu pour effet de déplacer le curseur sur la performance de l’information (collecte systématique, exhaustivité, rapidité, temps réel) au détriment de sa pertinence?
En effet, avec la surabondance des sources disponibles sur Internet, la collecte s'est démocratisée, elle n'est plus un problème, même si elle demande cependant, du fait justement de cette abondance, de la méthode, et l'utilisation et le paramétrage d'outils adaptés, et donc du temps. Donc ce qui fait davantage problème aujourd'hui, c'est l'analyse. D’abord il faut voir si l’information vous intéresse. Avec tous les outils de collecte, même si vous affinez vos requêtes, il y a malgré tout beaucoup d’informations non pertinentes et il faut donc choisir si vous retenez ou non ces informations. Ensuite, il y a l’évaluation de l’information. Est-ce qu’elle est valide? De qui elle émane? De quand elle date ? Est-ce qu’il y a une institution derrière la personne qui émet l’information? Bref quelle est l’autorité de la personne qui émet l’information? Le dernier aspect de l’analyse, c’est évaluer en quoi l’information va vous être utile et faire le lien entre là où vous allez, votre stratégie (si vous en avez une) et ce que l’on peut obtenir avec cette information. Et ça ce n’est pas facile, car cela demande de bien se situer dans son environnement, de connaître ses points forts et faibles. Si vous avez partagé auparavant  les informations validées, cela peut aussi vous permettre de disposer de plusieurs filtres et de mieux les interpréter.

Quels sont les bénéfices d’Internet  dans la recherche d’informations fiables?
Il y a d’abord de nombreuses sources reliées à ce que l’on pourrait nommer le web.1.0 Premièrement, les sources professionnelles payantes. On a du mal à se rendre compte, mais il y a 25 ans, quand n’y avait pas encore Internet, il y avait déjà des informations électroniques disponibles. Mais pour y avoir accès, il fallait un logiciel spécifique, être connecté aux réseaux de communication, posséder un modem, puis un logiciel d'interrogation spécifique et conclure des abonnements individuels à ce que l’on appelle maintenant des agrégateurs de données. Obtenir des informations fiables sur le réseau était donc possible, mais c’était compliqué. Ces sources, qui existent toujours, proposent des données payantes, qui agrègent des sources professionnelles, généralistes. En principe ce sont soit des journalistes soit des scientifiques. Donc à priori des sources fiables. Maintenant tout est simplifié puis que toutes ces sources sont accessibles sur Internet, et vous n’avez pas besoin d’avoir plusieurs logiciels spécifiques. Deuxièmement, vous avez aussi facilement accès, via les sites web d’organisations à des rapports, des études, des statistiques. Il y a d’abord les organisations statistiques nationales, internationales, qui diffusent de l’information par définition fiable. Tous les sites publics proposent, grâce à Internet,  de l’information facilement accessible, gratuite et fiable. Troisième source d’information du web 1.0, ce sont les organisations sectorielles ou professionnelles dont la vocation est de défendre les intérêts d’un secteur d’activité, mais aussi de collecter et de diffuser de l’information sur ce secteur. Pour apporter des informations utiles à ses membres d’abord, mais pas seulement, puisque souvent, les statistiques de ces organisations sectorielles sont reprises par les organisations statistiques cantonales et fédérales. C’est donc une source inestimable mais très souvent négligée. Toujours dans le web 1.0, les études des banques qui ont des départements d’analyse, qui effectuent régulièrement des analyses sectorielles. Si vous allez par exemple sur le site du Crédit Suisse et que vous cherchez bien, vous trouverez aussi des séries d’études dont on peut penser à priori qu’elles sont fiables.

Et dans ce que l’on appelle le «Web 2.0»?
Il y a en particulier les sources provenant de forums, blogs et réseaux sociaux. Il faut focaliser sur les experts. Comment identifier les experts, sachant que ce n’est pas toujours facile, parce que si vous avez énormément de sources sur un blog, très bien écrites, vous pouvez vous demander, qui est derrière? il y a une vérification à faire, qu’on a tendance à oublier. Les réseaux sociaux, il y a des choses intéressantes, et notamment les groupes autour d’un sujet. Les gens sont passionnés, ils  aiment bien échanger et souvent sur des sujets intéressants, par secteur d’activité. Il y a aussi les forums, mais qui ont tendance à être très sectoriels (surtout les informaticiens). Il y a encore les flux, mais il s’agit plus là de techniques, puisque c’est pour avoir des informations sur un site donné que vous allez agréger et lire des flux. Autres types d’informations utiles que j’aurais pu mettre dans le web 1.0, c’est tout  ce qui émane des universités et des annuaires de liens faits par des bibliothèques, qui sont régulièrement tenus à jour. Par ailleurs, dans la mesure où c’est affilié à des universités, ça vous donne accès à des travaux de recherches. Et plus ça va, plus vous avez accès à des cahiers de recherches, qui sont souvent des rapports ou des interventions lors de colloques que vous pouvez avoir en texte intégral. C’est donc un autre type d’informations, intéressantes, assez fiables, et que vous pouvez avoir directement sur internet. Vous pouvez aussi trouver comme ça des experts qui ont écrit un ouvrage, un article, etc... Et puis je dirais tout simplement les catalogues de bibliothèque, avec des possibilités d'accès au texte intégral qui sont de plus en plus disponibles. Nous avons d’ailleurs rassemblé des sources utiles en économie sur répertoire qui s’appelle www.areso.ch (Annuaire de Ressources Economiques de Suisse Occidentale) qui est un annuaire de liens utiles pour la Suisse romande, et qui va être transformé bientôt en Infonet-Economy qui va être utilisé pour toute la Suisse. Il comportera aussi les publications académiques suisses en économie, collectées automatiquement grâce à une norme utilisée pour les dépôts institutionnels (OAI-PMH).


dossier préparé par:


Fabien Arévalo, Pierre Jean Duvivier, Lucia Fesselet-Comina, Loïck Mariette, Henry Martelet, Patrick Tharin