Tous e-xperts, parce que nous le voulons bien | Janvier 2010


Devenir e-xpert en 3 clics

Avec l’essor du Web collaboratif, il est de plus en plus facile aujourd’hui de donner son avis, de recommander son restaurant favori ou de rédiger un article sur son joueur de football préféré. La question est de savoir comment les internautes vont me faire confiance et comment m'identifier comme un contributeur crédible.


A l’heure où donner son  avis et consulter celui des autres est devenu une des principales activités sur Internet, il est également de plus en plus aisé de se profiler sur la toile comme un expert de tel ou tel sujet.

Pourtant, devenir contributeur nécessite certains investissements, notamment en temps, et les règles et normes à respecter sont nombreuses.
Si la plupart des mécanismes de confiance mis en œuvre sont quasiment identiques à ceux connus de longue date dans les grandes théories de la communication, d’autres se sont développés de manière significative sur la base des spécificités de la contribution sur la toile.

Donner son avis sur Internet est une activité relativement aisée. Au-delà des traditionnels forums largement présents sur la Toile, il est également possible de contribuer sur des sites de critiques et recommandations comme  I-Taste ou Trip advisor et même devenir rédacteur pour des sites de contenus comme Wikipedia.

L’inscription pour devenir contributeur est gratuite sur la quasi-totalité des sites, et elle se fait le plus souvent par la simple création d’un profil qui demande un pseudo et une adresse e-mail. Il ne faut pas avoir une formation précise ou  une expérience professionnelle particulière pour être accepté en tant que contributeur, y compris sur des sujets assez pointus. Enfin, sur les sites de témoignages de consommation – voyages, hôtels, restaurants – aucune preuve – billet d’avion, facture, ticket de caisse – n’est demandée.

Des investissements à consentir et des règles à respecter

S’il est vrai que donner son avis, et même pouvoir accéder à un statut d’expert, semble plus facile sur le Web que dans la vie courante, cela nécessite tout de même un minimum d’investissement en temps, que ce soit pour la création de la fiche signalétique initiale ou pour donner son avis sur tel restaurant ou tel hôtel en respectant les chablons demandés qui peuvent parfois s’avérer exhaustifs. 

D’autres sites, et notamment les plateformes d’enchères et de contenu rédactionnel, exigent de la part des contributeurs un bon niveau informatique.

Par ailleurs, des règles assez importantes doivent être suivies par celui qui veut voir sa contribution publiée. Ce sont essentiellement des normes éthiques et morales. Il est également souvent demandé de respecter certaines formes rédactionnelles, qui peuvent aller jusqu’à la bonne utilisation des minuscules et des majuscules !

Enfin, la modération peut se faire non seulement par les collaborateurs du site, mais également par d’autres internautes qui ont des possibilités d’interventions différentes selon leur statut.. Les sociétés et les établissements mis en cause peuvent aussi réagir a postériori.

Des codes de confiance assez traditionnels

Donner son avis, recommander, critiquer, évaluer, expertiser, sont des activités qui semblent donc au départ être bien plus aisées sur Internet que sur les canaux de communication traditionnels.

Pourtant les codes de confiance mis en œuvre sont à peu de choses près les mêmes que ceux que nous connaissons depuis longtemps.

Le support joue tout d’abord un rôle important. Un site va gagner en crédibilité en fonction de facteurs comme sa notoriété, son image,  son positionnement, voire même son esthétisme et sa facilité de navigation. Par exemple, un avis donné sur un site clairement identifié comme appartenant à telle société hôtelière ou telle organisation politique, ou délivré encore sur un site brouillon et peu lisible, perdra en crédibilité.

L’image de l’émetteur revêt également une importance particulière. Plus un contributeur est facilement identifiable (prénom et nom, coordonnées…), plus il gagne en crédibilité. Si en plus  il affiche une fonction d’expert ou un bon score attribué par ses pairs, son pouvoir de persuasion en est décuplé.

Enfin, le message lui-même est un élément primordial.  Plus la rédaction du texte sera argumentée, détaillée et factuelle, plus elle gagnera en crédibilité. A l’inverse, des avis donnés à l’emporte-pièces, utilisant un vocabulaire familier et basés essentiellement sur de l’émotion, ne gagneront pas facilement l’adhésion des lecteurs.

Ces facteurs – support, émetteur, message – bien connus des grandes théories de la communication, ont un effet multiplicateur. Une critique insultante laissée par un contributeur anonyme sur un site conçu à la va-vite par un concurrent n’aura que très peu de chance de convaincre qui que ce soit.

La confiance par l’algorithme

Un site comme Amazon utilise des outils qui vont faire des prévisions sur les préférences d’un usager fondées sur le type de comportement d’un très grand nombre d’autres personnes. Les interactions des internautes avec le système sont conservées en mémoire et des corrélations vont être effectuées: les clients qui ont acheté X achètent aussi Y et peuvent potentiellement être intéressés à acheter X’ et Y’.

Il y a ensuite les moteurs de recherche. Par exemple Google et son algorithme de PageRank. Le PageRank, ou PR, est le système de classement des pages Web utilisé par ce moteur de recherche pour attribuer l'ordre des références dans les résultats de recherche. Cet algorithme interprète un lien d’une page A vers la page B comme un vote de confiance que la page A exprime au sujet de la page B. Mais comme le Web est plus aristocratique que démocratique il va sur-pondérer les votes des sites importants (les « hubs ») c'est-à-dire hiérarchiser des réputations : un lien de la Maison Blanche sur mon blog aura plus de poids que l’inverse ! Ce mécanisme va contribuer à donner la prééminence à des sites déjà puissants, et pas forcément pertinents,  aux dépens des autres.

Des sites comme Lunch.com ou i-taste exploitent une fonctionnalité appelée «Réseau Similaire» (Similarity Network)  qui vous suggère un réseau d’utilisateurs qui ont des goûts proches des vôtres.

Citons aussi le Science Citation Index, système fondé sur la réputation qui mesure l’impact d’une publication en fonction du nombre de fois où elle est citée dans d’autres publications. Tout comme le PageRank de Google, il n’exige aucune participation active des internautes pour modifier les résultats.

L’internaute ici doit faire confiance à des algorithmes sans connaître vraiment les seuils à partir desquels les corrélations sont proposées. N’empêche : en interagissant simplement avec le système l’usager peut bénéficier d’une nouvelle forme de connaissance à travers des classifications, des hiérarchisations.

Ces outils de filtrage collectif exploitent l’information que les internautes laissent plus ou moins à leur insu sur un site Web et finissent ainsi par créer un paysage de confiance ou paysage de réputation.

La confiance par l’angoisse du statut

De eBay à Everything en passant par Swissfriends, nombreux sont les plates formes électroniques qui servent d’intermédiaire ou d’agrégateurs de contenus entre acheteurs et vendeurs, auteurs et lecteurs, cœurs à prendre et … cœurs à prendre.

Tous fondent leur bon fonctionnement sur un niveau de confiance élevée entre les intervenants. Problème : l’internaute en position de demandeur ou d’acheteur est confronté  à un niveau d’incertitude élevé. Qui est la personne anonyme derrière son écran avec qui je vais échanger (souvent pour la 1re fois), est-elle fiable, compétente,  les services ou produits proposés sont-ils de bonne qualité, seront-ils livrés à temps, dans de bonnes conditions?

Les plates-formes électroniques vont tenter d’endiguer ces inquiétudes de l’internaute en lui procurant des mécanismes de réassurance  afin de recréer virtuellement le même niveau de confiance entre deux individus qui se connaissent et commercent ensemble depuis longtemps.

Un premier dispositif sera de collecter des énormes quantité d’informations sur le comportement des participants puis de les agréger et les rendre publiques. Même si le vendeur est anonyme, l’acheteur peut alors se faire une idée sur son comportement en consultant l’historique des échanges avec d’autres vendeurs.

Un second dispositif est de solliciter les avis des internautes et de mettre en place des systèmes de notations. Ces ratings  plus ou moins sophistiqués peuvent être associés ou non à des différents dispositifs d’évaluations/recommandations (évaluation simultanée, évaluation séquentielle, évaluation avec une option d’attente).

De cette manière, le vendeur, même s’il ne doit opérer qu’une seule transaction avec un acheteur, va «soigner» son attitude car d’autres acheteurs pourront à l’avenir baser leur décision sur son profil de comportement. En effet, les vendeurs de bonne réputation ont de meilleures chances de vendre leur produit, et de les vendre à un prix plus élevé. En signalant tout mauvais comportement, voire en sanctionnant les contrevenants, le système à réputation pousse les internautes a améliorer leur comportement s’ils veulent continuer à commercer, échanger. Leur historique devient leur réputation. Changer de pseudo par exemple revient à supprimer sa réputation acquise.

Cette possibilité d’évaluer des intervenants sur une place de marché électronique accroît la confiance et l’efficacité des échanges ou des transactions. Le succès grandissant des logiciels libres en constitue le meilleur exemple. Les meilleurs développeurs sont d’autant plus incités à contribuer à la création ou à l’amélioration un logiciel, s’ils savent que cette contribution peut jouer positivement leur carrière professionnelle, via une évaluation par leurs pairs.

La confiance par la coopération


L’usage des outils collaboratifs – c’est-à-dire l’intégration de savoirs individuels en savoirs collectifs via une interface partagée d’édition en ligne – se généralise sur le Net. Les communautés de développement de logiciels «open source» comme Linux et les projets de contenu collaboratif ouvert comme Wikipédia sont les navires amiraux de ces systèmes..

Il s’agit d’une remise en cause de l’hypothèse selon laquelle un projet complexe nécessite une approche a priori centralisée. Ce concept a été popularisé par James Surowiecki, auteur du livre «La sagesse des foules». L’auteur démontre, à travers de multiples exemples, que les décisions prises par un grand nombre de personnes se révèlent souvent meilleures. Toutefois, la réalité prête moins à cet optimisme. Par exemple, pour Wikipédia – enregistrant pourtant 325 millions de visiteurs par mois – des chiffres témoignent de la difficulté à atteindre cette «sagesse»:


  • Une récente étude annonce une forte baisse du nombre des contributeurs.
  • A l’instar de nombreux sites pariant sur l’intelligence collective, les contributions de Wikipédia suivent la loi de Pareto : une minorité active fournit le contenu et les autres consomment. Cette domination d'un petit nombre sur le contenu s'accentuerait au cours du temps.


Si, sur eBay ou TripAdvisor, les commentaires s’ajoutent les uns aux autres, dans certains sites de partage d’informations et de connaissances, les apports des uns sont modifiés par les autres. Un expert peut donc voir son  article modifié, mis à jour par un autre individu, qui peut être non spécialiste. Dans ce contexte, les utilisateurs (end users) doivent évaluer la pertinence et la justesse de l’information mise en ligne.

Les wikis – les sites collaboratifs – adaptent donc certaines caractéristiques des systèmes de réputation mis en place par certains sites marchands (User-Driven Reputation) :

  • en éditant des principes  de base contraignants et en créant des garde-fous (par exemple certains thèmes controversés sont protégés et la modification du contenu est bloquée pour les contributeurs dont la réputation est insuffisante)
  • en mettant en place des « bots » qui empêchent les actes de « vandalisme » et donnent l’alerte si des auteurs à faible réputation modifient des articles
  • en gérant leurs sock puppets (participants qui utilisent plusieurs comptes), leurs trolls (perturbateurs)
  • en gardant en l’historique de chaque version d’une page
  • en « cajolant » les contributeurs les plus importants (en reconnaissant par exemple leur expertise)

Malgré ces premiers niveaux de contrôle, certains estiment que le principe d’évaluation de la confiance à la base des wikis est beaucoup trop faible. Ils proposent de le renforcer par un système de réputation ne nécessitant aucune intervention des utilisateurs (Content Driven Reputation).

Ce type algorithme serait basé, par exemple, sur le temps pendant lequel un article reste en ligne et offrirait la possibilité à l’internaute de vérifier, pour chaque article, la réputation de chaque auteur. Par exemple en affichant un fond de couleur propre à chaque contributeur.

Autre exemple avec des chercheurs suisses et chinois des universités de Fribourg et des Sciences et Technologies de Chine. Ils étudient la possibilité de prendre en compte la fiabilité des votants dans l’établissement de ces classements c'est-à-dire pondérer les notes en fonction du niveau d’un indice confiance des utilisateurs calculé et non pas déterminé par les autres utilisateurs.

D’autres systèmes misent sur la validation de contenus à partir de recommandations de connaisseurs ou d’experts dans un domaine particulier – par exemple le projet  «Music Genoma Project » (Projet de Génôme Musical) sur le site de la Web Radio www.pandora.com. Ces «experts» évaluent des morceaux de musique selon une batterie de critères et la radio les associe aux goûts des auditeurs.

Ces mécanismes de confiance et de validation de contenus vont certainement évolués avec l’arrivée à maturité du web sémantique, aujourd’hui encore au stade de prototype. Schématiquement le web sémantique consiste à avoir deux couches d'informations sur le web : l'une destinée aux hommes, l'autre aux machines. L'idée étant de permettre aux machines de comprendre les données dédiées aux utilisateurs, afin de développer des services toujours plus pertinents, par exemple interconnecter les résultats de recherche des utilisateurs en fonction de leurs centres d'intérêt.

E-xperts malgré nous

En matière de confiance sur les contenus, le Web revient de loin. C’est seulement en 2002 que l’American Federal Trade Corporation a écrit une recommandation publique demandant aux compagnies de moteurs de recherche de mettre en évidence leurs politiques de liens et de signaler clairement les publicités pour éviter la confusion des usagers. 60% des internautes ne faisaient aucune différence !

Cette problématique est néanmoins toujours d'actualité. Nos recherches sur Google, nos contributions sur Wikipedia, nos transactions sur eBay ont toutes valeur d’information, de savoir, pour autant qu’elles aient été notées, validées, filtrées, hiérarchisées, recommandées, commentées évaluées… par un grand nombre d’internautes ou par d’obscurs algorithmes. Dans cet environnement collectif, la confiance et la réputation jouent un rôle central.

Finalement nous sommes tous devenus e-xperts, peut-être à nos dépens, car ces mécanismes de confiance et de validation en vigueur sur le Web 2.0 continuent de poser un certain nombre de questions:

  • Quel est notre contrôle sur la manière dont l’information est collectée, traitée, synthétisée, restituée ?
  • Pourquoi, finalement, ferait-on confiance à des algorithmes, des filtres... ?
  • En quoi ces systèmes mis en place seraient garants d’une certaine "intelligence collective"?


«Where is the wisdom we have lost in knowledge? Where is the knowledge we have lost in
Information?
» [Où est passée la sagesse que nous avons perdue avec la connaissance ? Où est la connaissance que nous avons perdue avec l’information ?] ? T.S.Eliot in Thomas Stearns Eliot, Collected poems, 1909-1962, Harcourt Brace Jovanovich, 1963

Bibliographie

Reputation Mechanisms. Economics And Information Systems”. Dellarocas, C. Elsevier.2005
"La gratuité à la croisée des nouveaux modèles d'affaires sur Internet", Réseaux, Nguyen et Pénard, 2004.

"Pourquoi évaluer son partenaire lors d’une transaction à la eBay ? Une approche expérimentale". D. Masclet, T.Pénard, CREM, Université de Rennes 1-CNRS, 2006.

"Trust Among Strangers in Internet Transactions: Empirical Analysis of eBay's Reputation System." The Economics of the Internet and ECommerce, Advances in Applied Microeconomics. Resnick, P. and R. Zeckhauser . 2002.

Reputation, Trust, & Rebates: How Online Markets Can Improve Their Feedback Mechanisms”, Institute for Mathematical Behavioral Sciences. Li, L. I. 2006.

A Content-Driven Reputation System for the Wikipedia” - Thomas Adler, Luca de Alfaro,  School of Engineering, University of California, Santa Cruz, 2006.


dossier préparé par:


Fabien Arévalo, Pierre Jean Duvivier, Lucia Fesselet-Comina, Loïck Mariette, Henry Martelet, Patrick Tharin