G


Ce lexique regroupe quelques termes techniques ou jargonneux – souvent employés par les spécialistes du Web, des technologies de l’information et du Webmarketing – qui émaillent les articles d’e-sens.

Geek

Dans son origine allemande, le mot veut dire « fou ». Plus gentiment, le néerlandais ancien lui attribuait l’idée d'« espiègle ». Aujourd’hui, dans le monde des technologies et du Web, les connotations péjoratives se sont encore estompées pour cette appellation qui désigne une personne férue de technologies, d’objets high-techs, et très connectée. Le Web, ses évolutions technologiques et la débauche d’objets connectables via une prise USB sont des sujets de satisfaction sans cesse renouvelés pour les geeks qui nous entourent !

 

Génération Y

« Une mauvaise herbe est une plante dont on n'a pas encore trouvé les vertus. » Cette phrase de l’auteur américain Ralph Waldo Emerson s’applique bien aux membres de cette génération. Particulièrement sous les feux des medias du fait de l’incompréhension qu’elle suscite, la génération Y fut dans un premier temps caricaturée, puis analysée pour comprendre comment non seulement l’intégrer à l’entreprise, mais aussi en tirer la valeur qu’elle est à même d’y apporter dans un environnement économique de plus en plus interconnecté.

Pour la caractériser en quelques mots : c’est une génération qui maîtrise la palette complète des outils informatiques et des applications numériques qui l'accompagnent, en particulier les réseaux sociaux qu’elle utilise autant pour sa vie personnelle que pour sa vie professionnelle, effaçant les frontières qui existaient entre elles précédemment. Une génération techno-branchée, désireuse et prisonnière de l’ubiquité et de l’immédiateté. À la fois plus indépendante et plus autonome, elle provoque un choc des cultures entre les générations, en particulier avec celle des baby-boomers qui tient souvent les commandes dans l’entreprise, mettant ainsi sens dessus dessous les RH et les systèmes hiérarchiques. On lui reproche souvent une culture zapping, mais c’est le revers d’une pièce dont le bon côté s’appelle mobilité, curiosité, multitâche. Des compétences utiles pour arriver à apporter des solutions innovantes à des problèmes complexes. Ces « adulescents » fonctionnent (eux aussi) à l’affect et ont besoin de relations personnalisées et de reconnaissance. Cette génération revendique l’épanouissement personnel et, considérant les rapports sociaux au sein de l’entreprise de façon transverse, vante dans une dérision sympathique la cool attitude à base de tutoiement, d’une barbe de quelques jours pour les mâles de l’espèce, de sa tenue vestimentaire (le sweet-shirt du patron de Facebook lançant l’introduction en bourse de sa société pour 100 milliards de dollars est ici emblématique). Elle cherche à donner du sens à son métier et à sa vie, au point de vouloir que l’entreprise s’adapte à ses valeurs, au point d’exiger de comprendre les ordres avant de les appliquer et de ne reconnaître son manager que s’il a su lui prouver ses compétences. Elle est plus diplômée et plus expérimentée, mais elle rencontre aussi plus de difficultés pour accéder à l’emploi dans un statut traditionnel. Son expérience s’est construite au travers de stages enchaînés.

Mais est-ce réellement une génération quand on y trouve des personnes de 15 à 35 ans ? C’est en tout cas une réelle tendance de fond et non pas un simple phénomène éphémère de mode. Il faut donc se donner les moyens de les intégrer à l’entreprise pour aller chercher, sans céder à tous leurs « caprices », la valeur qu’ils peuvent apporter dans les organisations. Dépêchons-nous de nous y adapter car les « Z » suivent, ceux qui ont toujours connu les technologies Internet, qui sont arrivés dans les schémas politiques nouveaux de l’après mur de Berlin…

 

Géolocalisation

Innovation apportée par l’utilisation grandissante des appareils mobiles, la géolocalisation permet de fournir des informations en fonction de la position géographique de l’utilisateur.

Ce procédé est basé soit sur la reconnaissance des fréquences du GSM, soit sur les balises du GPRS, soit sur les satellites du dispositif GPS, mais ici l’utilisateur localisé ne peut pas envoyer de données.

Ce service enrichit les données des sites Web, des réseaux sociaux et des applications mobiles en offrant des services supplémentaires. La recherche dans l’application des Pages Jaunes sur Smartphone est par exemple orientée en fonction de l’emplacement où vous êtes repéré. Mais l’activer donne aussi à la base de données de précieuses indications sur vos habitudes de déplacement, ce qui permettra par exemple de vous proposer de la publicité et des offres géolocalisées. Les marketeurs ne manquent pas d’idées pour vous amener à autoriser que l’on vous géolocalise en vous proposant par exemple de vous trouver un restaurant à proximité (exemple : l’application AroundMe pour Smartphones), ou en vous indiquant à quelle distance se trouvent des personnes de votre connaissance (exemple : le réseau communautaire « peuplade »). La géolocalisation peut aussi être insidieuse, à votre insu. Pour illustrer ce fait, l’algorithme du site « PleaseRobMe » analyse en temps réel les millions de tweets émis par des usagers du site de microblogging, les scrute pour y repérer des contenus qui permettent de déduire que l’émetteur n’est pas à son domicile, et publie sur sa page Web la liste des personnes à même d’être cambriolées car absentes de chez elles !

Le droit ne devrait pas tarder à s’emparer du domaine pour y introduire une nécessaire réglementation.

 

Global System for Mobile Communications (GSM)

Norme élaborée pour le téléphone mobile numérique. Outre les communications vocales, il est possible d’utiliser un service de messages courts (SMS) d’un maximum de 160 caractères. C’est à cause de la généralisation de ce mode de communication par sms que les ados ridiculisent leurs parents par une vitesse spectaculaire de frappe avec leurs pouces et qu’ils les excluent avec un langage sms qui s’approche de la phonétique et qui contamine parfois leurs écrits plus traditionnels. Ce sont plus de 305 millions de sms qui ont été émis chez l’opérateur français Orange pour le nouvel an 2012 !

Pour plus de détails sur les autres normes de communication, voir GPRS.

 

Goodies

« Il faut donner pour recevoir » est une règle de fonctionnement qui ne se dément pas non plus dans l’environnement en réseau. Mais donner au moindre coût pour l’entreprise, tout en apportant de la satisfaction à l’internaute usager. Facebook vous donne la possibilité d’afficher des informations sur votre mur, Copainsdavant vous donne la possibilité de retrouver vos collègues de lycée, Journaldunet vous donne de l’information journalistique sur votre technologie favorite… Il est possible d’aller plus loin. Des « objets numériques » peuvent ainsi être donnés pour décorer un lieu dans un monde virtuel, illustrer son profil dans une communauté, distinguer son avatar dans un monde virtuel, personnaliser son fond d’écran, adresser une e-card à des connaissances, offrir un jeu téléchargeable… Les idées ne manquent pas. Pour trouver la bonne, il faut croiser satisfaction de l’internaute qui recevra et intérêt pour l’entreprise qui donne. Ces goodies devant aussi être déterminés en fonction de la capacité à fidéliser ou à obtenir plus d’informations sur le profil de l’internaute.

 

Google

Plus de 6 milliards de requêtes ont été proposées en janvier 2012 aux États-Unis au leader des moteurs de recherche occidentaux. Quand en France on lui pose la question « demande d’emploi », il retourne dans ses SERP (Search Engine Result Page) 98 700 000 pages… Bref : incontournable avec plus de 95% de parts de marché des requêtes en Europe !

C’est en 1997 que le nom de Google.com a été enregistré. Il remplaçait le nom initial, Back Rub, pour lui préférer un mot à même de faire penser au terme mathématique « googol », nombre représenté par le chiffre 1 suivi de 100 zéros. La mission de l’entreprise était ainsi illustrée : repérer, archiver et restituer des informations parmi la masse de celles disponibles sur le Web. À ce propos, une question à laquelle bien peu peuvent apporter une réponse précise : combien Google indexe-t-il de pages et quel pourcentage ceci représente-t-il du Web ? De concert avec son concurrent Yahoo !, Google a arrêté de communiquer sur ces valeurs dans les années 2000. Si l’on en croit certaines sources qui pourraient être informées, c’est en juillet 2008 que Google aurait atteint le trillion, 1000 milliards, de pages répertoriées sur le Web. En 1995, quand Larry Page, 22 ans, a rencontré Sergey Brin à l’Université de Stanford et qu’ils ont commencé à programmer les premières lignes du moteur d’indexation qui allait devenir la success story que nous connaissons, les internautes n’étaient que 16 millions dans le monde...

L’algorithme de Google cherche à être de plus en plus sophistiqué pour lutter contre les promoteurs des sites Web qui eux aussi affinent leurs techniques, cherchant à figurer dans les premières pages, même au prix de pratiques de référencement douteuses. Dans cette lutte pied à pied, Panda, la version du robot d’indexation de Google lancée au début de l’année 2011, a remporté une bataille importante contre les « fermes de contenu » qui produisent de façon automatisée des textes, et contre les « scrappers » qui pillent les textes existants. Deux techniques dont le seul but est de faire figurer les pages qu’ils servent en tout début des listes de réponses du moteur. L’enjeu du positionnement est tellement crucial pour les sociétés dont la survie dépend de leur visibilité sur Internet qu’il a donné lieu à la création de nouveaux métiers, les référenceurs, de nouveaux prestataires, les agences de référencement, et de nouvelles techniques comme le SEO pour Search Engine Optimisation.

Google l’hégémonique n’est cependant pas le bienvenu partout. En Chine, par exemple, où la place de leader est tenue par Baidu, le moteur local. L’entreprise, la marque ou les produits qui prétendent être vus en Chine se devront d’en appréhender le fonctionnement, à la fois pareil et différent du moteur américain.

Dans la puissance de Google se cachent ses fragilités. Par exemple, le fait que l’indexation des documents, pour sophistiquée qu’elle soit, reste basique car fondée sur des comptages statistiques pondérés de divers coefficients en fonction notamment de la position des mots retenus dans le texte, ou en fonction des sites qui pointent sur celui qui est à classer. Que deviendra cette approche quand le Web sémantique, certes décrié par certains comme un mythe illusoire, permettra d’indexer en fonction de la compréhension réelle des questions et des contenus des sites ? Le modèle économique, quasi exclusivement basé sur la publicité, est une autre des fragilités du géant. Tout se vend dans Google et le référencement naturel qui permet de figurer en bonne position grâce aux mots clés intégrés dans le texte du site est loin d’être suffisant, voire impossible pour prétendre à être vu. La publicité versée à Google qui assure un bon positionnement est alors la solution. Et les firmes dépensent en « adwords », les mots clés achetés pour que la publicité s’affiche en fonction des requêtes entrées, un budget conséquent qui grève la rentabilité des opérations de e-commerce... Tant et si bien que, de plus en plus, des solutions alternatives de visibilité sont cherchées par ces entreprises.

C’est aussi pour ces raisons que Google reste en permanence à l’affût de nouvelles opportunités, comme la mise sur le marché d’un téléphone Google, l’achat de champs d’éoliennes, l’investissement dans l’exploration minière spatiale… Google est un bon exemple de cette économie en réseau dont l’auteur des 12 lois sur l’économie interconnectée qu’est Kevin Kelly, un brin provocateur, n’hésite pas à affirmer en traduction littérale « … l’harmonie est mauvaise, le chaos est bon… ».

Le moteur de recherche est aussi dans le périmètre d’un domaine qui interpelle beaucoup actuellement, celui de l’e-réputation. Bien des entreprises mesurent à leurs dépens la puissance du moteur dès qu’une requête dans Google exhume des résultats les concernant qui datent de plusieurs années. Pour se prémunir d’informations négatives, il faut savoir qu’elles ont été diffusées. Ici aussi, Google vous aide en vous autorisant via son moteur à « googliser » de façon automatique par Google Alert, à périodicité donnée, ce qui se dit sur votre marque, vos produits, votre entreprise…

Si nous connaissons tous Google Web Search, le service principal de la firme Google pour la recherche des documents sur le Web, à la périphérie, mais pourtant partie intégrante de la marque, il est intéressant d’aller faire un tour dans la galaxie des produits de la firme Google qui ne compte pas moins de 188 services disponibles, souvent leaders ou parmi les tout premiers de leur domaine. Sous la bannière Google c’est aussi :

 

– pour la recherche d’informations, Google Alerts qui surveille le Web mode push ; Google Custom Search Engine, Google Blog Search, Google Scholar ou Google Book ;

– pour la messagerie, Gmail ;

– pour les vidéos, second moteur de recherche au monde, Youtube ;

– Google Documents qui s’adresse au travail collaboratif ;

– Picassa qui permet de partager des albums photos ;

– pour la publicité, Google Ad Manager, Google AdWords et son API ;

– Google Agency Toolkit qui aide au marketing des entreprises ;

– Google Analytics qui décortique en version gratuite ou payante la fréquentation des sites Web, complété du célèbre Google PageRank qui mesure la popularité d'une page sur le Web, de Google Measure Map pour les blogs, de Google Reader qui analyse les posts de blogs lus, mis en favoris ou partagés par les utilisateurs, de Google Trends qui donne les tendances de recherche des internautes et de YouTube Analytics pour le site de vidéos ;

– le système d’exploitation multi supports de Google, Android ;

– Blogger qui permet la gestion de blogs ;

– Google Friend Connect qui lie site Web et certains réseaux sociaux ;

– Google goo.gl qui permet de créer des URL raccourcies ;

– Google+ qui est le réseau social lancé en juin 2011 et l’OpenSocial qui aide au développement d'applications basées sur les réseaux sociaux compatibles ;

Google Website Optimizer permettant de tester son site Web ;

– Etc.

Devant les mutations et la concurrence, que deviendra la firme Google dans les prochaines années ? Les points de vue divergent. Absorbée par le phénomène des réseaux sociaux et du Web 2.0 pour certains. Encore plus présente par son système d’exploitation Android dans tous les recoins de notre vie, de la télévision du salon au Smartphone contre l’oreille en passant par notre automobile, pour d’autres. L’avenir le dira. Probablement rapidement. Gageons que la firme qui a contribué par ses outils et ses modèles à bouleverser si profondément et de façon durable l’économie au niveau planétaire au point d’inspirer l’ouvrage What Would Google Do? saura trouver ce qu’il convient de faire. En toute modestie planétaire, évidemment, comme le laisse à penser cette phrase extraite de leurs pages Web d’aide : « we’re excited to focus on creating a beautifully simple, intuitive user experience across Google – an experience that will change the lives of millions of people… ».

 

Google+ 

Dans la planète Google esquissée ci-dessus, se trouve Google+, le réseau social de la firme qui a mis moins de 6 mois à atteindre les 40 millions d’usagers, barre que Facebook avait franchie après plus de deux années. Parmi les quelque 90 millions de membres que comptait Google+ en 2011, ils seraient 12 millions d’internautes français, versus 25 millions dans Facebook. Le « +1 » de Google+ n’est pas encore en passe de détrôner le « Like » du leader. Mais Google+ est jugé bien plus pratique, bien plus professionnel. Au point d’y trouver des internautes au profil assez différent de ceux rencontrés sur Facebook. Et n’est-ce pas la pertinence des profils, et donc des données accumulées, qui crée la valeur ?

Outre le nombre d’abonnés, et peut-être plus important, la différence majeure entre les deux concurrents est qu’en janvier 2012 l’utilisateur de Google+ a passé un peu plus de 3 minutes par mois sur son réseau social contre 6h pour les membres de Facebook.

L’idée de structurer ses contacts en cercles, système qui remplace avantageusement la liste d'amis connue dans Facebook, a permis au lancement une facilité d’organisation face au rival géant.

Google mobilise tout l’univers des services qu’il propose, d’Android aux adwords en passant évidemment par le célébrissime moteur de recherche ou Youtube, pour promouvoir auprès de milliards d’utilisateurs le réseau social de la marque. Le nombre de membres de Google+ est prévu à environ 400 millions d’utilisateurs pour fin 2012, ce qui le portera à la deuxième place des réseaux sociaux au monde, avec moitié moins de membres que le leader Facebook.

 

Google juice

Expression étonnante et imagée qui se traduit littéralement par « jus de Google » pour désigner les termes bien choisis, mots clés et contenus des pages qui propulseront la page Web concernée en bonne position dans les SERP Google, ces pages de résultats composées en réponse aux requêtes des internautes.

 

Gouvernance d’Internet

Pour beaucoup, Internet est une entité libre et non structurée qui fonctionne en toute égalité et en toute autonomie entre les individus, les pays, les sociétés. La suite risque de fissurer ce fantasme libertaire…

La gouvernance d’Internet se compose d’États, de membres du secteur privé et de la société civile qui travaillent à établir règles et procédures utiles pour coordonner et faire évoluer le Web. Depuis 2003, la gouvernance d'Internet est débattue au travers des sommets mondiaux de la société de l'information. Il y est traité de sujets comme celui de l’adressage IP ou des noms de domaines.

Parmi les diverses structures qui organisent le réseau et le font évoluer, deux volets importants et complémentaires se retrouvent sur des zones géographiques et des sujets spécifiques : l’ICANN (Internet Corporation for Assigned Names and Numbers, qui a été créé en 1998 par le vice-président américain Al Gore), le W3C (World Wide Web Consortium, fondé en 1994 pour intervenir sur le volet des standards technologiques), l’AFNIC (Association française pour le nommage Internet en coopération, qui a été créée en 1997 afin de coordonner les noms de domaines français en .fr ou .re pour l’île de la Réunion)…

GPRS (General ou Global Packet Radio Service)

Dans la course vers un débit toujours plus élevé, le GPRS est une norme qui optimise la norme téléphonique précédente, GSM (Global System for Mobile Communications), grâce à des techniques plus adaptées à la transmission de données. Cette norme introduit la transmission par paquet des informations, sécurisant ainsi l’envoi grâce à un dispositif de correction d'erreurs. Elle est organisée de telle sorte que la ressource réseau n’est mobilisée que quand des données sont disponibles. Ainsi, le réseau peut être utilisé par plus d’utilisateurs.

Le GPRS est donc l'une des étapes de l’évolution qui a débuté avec la norme « Radiocom 2000 », suivie de la norme GSM, dite 2G et réservée aux échanges de type vocal uniquement, puis vint la norme GPRS (échange de données sauf la voix), complétée de l'EDGE (pour Enhanced Data Rate for GSM Evolution) qui s’appuie sur le réseau GPRS existant, suivie de la norme dite 3G UMTS, qui précède (c'est pour bientôt) la norme 4G (Long Term Evolution Advanced). Pour donner une idée de l’évolution, Radiocom 2000, c’était un débit en bits par secondes de 9,05k alors que la 4G, c’est un débit de 1 Giga bits à l'arrêt et de 100 Méga bits en mouvement.

Gageons que la progression ne s’arrêtera pas là et que les techniques de compression de données permettront d’aller encore plus vite, l’enjeu étant de pouvoir faire évoluer le système sans bouleverser les infrastructures lourdes du réseau en place afin d’optimiser les investissements.

Il faut noter aussi que dans cette course à l’accès au débit élevé de transmission de données, les gouvernements ont trouvé leur modèle économique par la mise en vente aux opérateurs privés de licences de communication. C’est, pour l’octroi de la 4G par exemple, une manne de plusieurs centaines de millions d’euros qui entrent ainsi dans les caisses de l’État.

La connectivité, partout, toujours et avec un débit suffisant, constitue la condition de base du fonctionnement en réseau qui s’amplifie au rythme de la connexion des hommes et des objets.

 

Graphe social

Le graphe social est le cœur du fonctionnement des réseaux sociaux et de Facebook en particulier.

Dans les réseaux sociaux, grâce aux fonctions mises à leur disposition, les membres se connectent, aiment, partagent, commentent, écrivent, taguent... Autant d’actions qui permettent d’alimenter leur profil. Leurs « amis » font de même avec eux, ce qui enrichit le profil des membres d’autant de données. Les connexions par la localisation d'adresses IP fixes ou mobiles complètent les données sur les lieux fréquentés. Au final, c’est un profil très précis qui se construit, pour certains aspects à l’insu des membres eux-mêmes. C’est ainsi une cartographie détaillée des contacts, qui se mêlent dans un entrelacs planétaire aux relations des contacts, aux contacts des contacts d’un contact… jusqu’à former le graphe social qui s’alimente de toutes les interactions entre les individus que le réseau social a été à même de proposer et dont l’exploitation porte la valeur du dispositif.

Facebook a été, si ce n’est l’inventeur de ce socle des réseaux sociaux, du moins la firme qui en a rendu le principe populaire et, en tout cas, l’entreprise qui a su fortement le généraliser et le monétiser. Pour Facebook, le graphe social s’appelle l’Open Graph.

Certaines plates-formes ont décidé de rendre une partie de ce graphe social accessible aux développeurs par la mise à disposition de leur API en open source, l’Open Graph 2.0 de Facebook permettant par exemple depuis 2011 d’exporter des services vers le site Web traditionnel de l’entreprise afin de le rendre « social » en recourant à des fonctions comme « Connect » (pour permettre à l’internaute de s’identifier avec ses paramètres Facebook) et à des boutons (« Like » ou autres) dont les appellations auront pu être personnalisées en raison des actions de l'internaute. Cette « contamination sociale » hors du réseau est importante car elle permet à la plate-forme d’étendre son périmètre pour continuer à accumuler des informations sur les membres.

L’Open Graph de Facebook évolue en permanence depuis la création du concept. Ainsi, la nouvelle version, mise à disposition en 2011, n’impose plus aux membres de réaliser expressément une action pour que les autres membres amis en soient informés. La consultation d'une vidéo ou la mise à jour de son profil seront automatiquement répercutées. Ce principe d’acceptation tacite a été l’opportunité du développement de nouvelles applications. Il n’est pas sans poser, une fois de plus, la question de la confidentialité des données et du respect de la vie privée. Même si aujourd’hui de plus en plus de réglages sont à la disposition des internautes pour leur permettre de ne rendre visible les données qu’ils y laissent qu’à ceux sélectionnés de leurs amis, – au sens d'amis dans un réseau social.

Le réseau Google+ dispose aussi de son graphe social. Au grand dam de certains, l’API qui en rendait le contenu accessible aux développeurs a été retirée en avril 2012.

Dans cette débauche « d’amis » que les réseaux sociaux permettent de se faire, il est quand même important de rappeler le « nombre de Dunbar » qui montre que le cerveau humain ne peut gérer une relation stable qu'avec un maximum de 150 contacts. Loin de la puissance du graphe social de Facebook et des « amis » que nous y avons, ou du nombre de relations que nous emmagasinons dans Viadeo et autres LinkedIn ! Gageons que dans quelques années, le recul aidant, Mark Zuckerberg sera peut-être oublié, mais que l’Open Graph sera considéré comme aussi important pour le Web que le fut l’invention du lien hypertexte.

 

Gratuit

En 2011, le chiffre d’affaires de Google a frôlé les 38 milliards de dollars. Le tout, en proposant au grand public des services en général gratuits (moteur de recherche, GMail, GoogleMaps, YouTube…). Ce chiffre d’affaires de Google repose avant tout sur la publicité qui représente 96% des revenus de l’entreprise.

Plus de la moitié des personnes ayant répondu à une enquête, et principalement les étudiants, accepteraient de recevoir de la publicité ou des informations de la part d’une marque, si elles recevaient en échange des minutes pour téléphoner gratuitement ou des SMS/MMS à envoyer sans frais.

Wikipedia, cinquième site le plus visité au monde, a engrangé environ 25 millions de dollars en 2011 grâce aux campagnes de dons portées par les appels de son fondateur Jimmy Wales. Cette somme provient de 573 568 donateurs individuels (contre 261 339 l’année précédente, soit une augmentation de 219%), chacun ayant offert en moyenne 40,10$. Elle émane également d’internautes, d'entreprises et d’associations qui soutiennent l’orientation de la firme : « Imagine a world in which every single human being can freely share in the sum of all knowledge ».

Ce ne sont là que trois exemples parmi les très nombreuses illustrations que l’on pourrait donner du phénomène de la gratuité sur Internet. Si l’on en considère l'histoire, cette « générosité » est dans les gènes fondateurs du réseau car Tim Berners-Lee, l’homme qui a changé le monde en développant à partir de 1990 les trois principales technologies du Web (adresses Web, http et HTML), a mis gracieusement ces éléments à la disposition de la communauté.

Bien évidemment, personne n’est dupe et il est clair que le gratuit n’existe pas mais qu’il convient de parler de déplacement de valeur. Le modèle économique du « freemium » (voir dans ce lexique) en est une illustration.

 

GRC (CRM ou Customer Relationship Management)

La Gestion de la Relation Client vise à améliorer les liens entre l’entreprise et ses clients grâce à l’apport de techniques informatiques permettant d’améliorer le repérage, la connaissance et le suivi. La technique et les logiciels sont une chose, finalement assez facilement maîtrisable, l’organisation et la rigueur nécessaires, conduites sur la durée entre tous les acteurs pour assurer un fonctionnement cohérent en sont une autre. Et c’est là que bien des entreprises rencontrent des difficultés dans la mise au point de leurs procédures. En particulier pour ce qui concerne la collecte et la mise à jour des données par des acteurs multiples et souvent/parfois peu motivés à partager leur savoir.

Avec l’arrivée de l’Internet, la relation client s’est enrichie d’un « e » pour devenir e-CRM. Cette évolution logique a entraîné des modifications profondes, essentiellement sur deux points : le multicanal et les communautés. Avec Internet qui aide à comparer, l’usager cumule assez systématiquement des canaux d’information différents, du catalogue papier à la boutique en ligne ou au lieu physique. Le multicanal s’est transformé en cross-canal, l'internaute recourant à plusieurs de ces voies d’accès. Il est donc primordial de pouvoir suivre précisément les informations données et les offres formulées dans chacun des canaux de passage. Internet, c’est aussi des forums, des blogs, des communautés et des réseaux sociaux. Autant de lieux où l’usager donne de l’information à profusion sur lui-même et sur sa relation aux entreprises et à leurs produits. Cette information, repérée, structurée et archivée pour la rendre accessible, est source de connaissance du profil du client. Son volume constitue cependant un élément de difficulté. Mais elle est produite directement par la personne, sans nécessité d’intervention et donc sans coût pour l’entreprise.

 

GRID computing

« Grid », qui peut se traduire par « grille », est un terme qui provient initialement du monde de l’électricité où il désigne l’organisation des réseaux structurés en divers éléments. Appliqué à l’Internet, le grid permet de relier virtuellement divers ordinateurs, chacun sous-exploité localement en termes de capacité de traitement (en moyenne 80% de sous-exploitation estimée), pour en faire une seule machine à même d’effectuer des calculs nécessitant davantage de ressources que celles disponibles individuellement sur les diverses machines qui la composent.

Le Décrypthon est une illustration concrète et spectaculaire de ce qu’est le grid computing et, au-delà, de la puissance de ce concept de réseau. Il s’agit d’une initiative lancée en 2001 au profit de l’AFM (l’Association Française contre les Myopathies), mise en place par deux acteurs majeurs de la recherche et de la technologie, IBM et le CNRS, associés à des universités françaises et des professionnels. Cette initiative regroupe les supra-calculateurs des universités et des centaines de milliers d’ordinateurs individuels d’internautes via le Web pour permettre des calculs de décryptage du génome humain. Devant le succès de l’opération et par extension, IBM a installé en novembre 2004 le World Community Grid, une plate-forme technique permettant d'effectuer de tels calculs en vue de lutter contre plusieurs maladies humaines et de les distribuer massivement au profit de recherches humanitaires. Au 25 mars 2012, plus de 589 000 comptes d'utilisateurs étaient enregistrés sur la plate-forme et plus de 2 millions d’ordinateurs enregistrés[1]. Depuis le début du projet, ce sont plus de 58 001 600 000 160 années de temps de calculs qui ont été effectuées. Des chiffres qui illustrent la puissance de cette organisation d’avenir dans un environnement de plus en plus interconnecté.

 


[1] Source : fr.wikipedia.org/wiki/World_Community_Grid