Articles

C’est la suite logique d’une histoire qui a commencé il y a de cela vingt ans, avec l’apparition de ce qui n’était pas encore le Web 2.0. La naissance de Facebook – d’abord une simple version électronique de ces livres d’anciens élèves très populaires aux États-Unis – a totalement chamboulé ce qu’était alors le Web. D’un espace majoritairement statique et encore très technique – l’avatar de cet univers digital 1.0, c’est le site Web personnel qui évoluera doucement en blog vers 2002-2003 – le Web va se transformer radicalement et devenir espace plus conversationnel, plus humain, plus chaud et convivial.

RÉVOLUTIONNER LE WEB

Facebook et ses congénères entérineront rapidement deux principes du Web social.

D’abord on ne visite plus des sites, sortes de paroles éditorialisées, mais on entre en contact direct avec des « personnes », des humains, des semblables. Pas que le principe soit nouveau : avant Facebook, les BBS, les newsgroups, IRC, les forums Web et les chats permettaient déjà ces dialogues et ces échanges en direct. Mais pour le grand public qui avait découvert le Web au tournant des années 2000, ces pratiques restaient souvent anecdotiques. Facebook va en quelques sortes démocratiser le dialogue, faire du Net cette agora dont on rêvait depuis la promesse du Village Planétaire des années soixante.

Ensuite, et c’est aussi important, on s’exprime facilement, sans qu’il soit besoin d’un quelconque bagage technique. Fini, l’apprentissage du HTML et la configuration d’un client FTP. Fini les longues heures de test de ses pages qui ne rendent, graphiquement, jamais réellement telles qu’on les avait imaginées. Facebook et les plateformes sociales rendent le partage simple : un champ texte, un formulaire d’upload… il n’en faut pas plus pour que ses pensées, ses idées, ses témoignages et ses œuvres touchent en trois clics les internautes du monde entier. Tout le monde peut vous atteindre, et il est facile désormais de toucher tout le monde !

UNE ÉPOQUE RÉVOLUE

Oui, Facebook a été une révolution pour le Net, incomprise pour certains et salutaire pour d’autres. Mais une véritable révolution d’usages et d’ambition, une façon surtout de faire d’Internet un outil du quotidien pour des millions et des millions de terriens.

Après, bien entendu, les choses ont dérapé. On parlera publicité, algorithme, influence, modération, choix politiques, toxicité des contenus… 20 ans après, le bilan de l’ère des réseaux sociaux semble bien négatif. Et les personnalités radicales et plus que controversées d’un Mark Zuckerberg, d’un Elon Musk ou d’un Jack Dorsey ne font rien pour redonner du lustre au Web social. Les années 2020-2023 ont sans doute été un tournant dans cette histoire : entre le renforcement des complotismes (on mettra les antivax et Donald Trump dans la même case), le vieillissement des audiences, les choix et supports politiques radicaux et les changements sociétaux, la grande époque des réseaux sociaux semble révolue. Pas que ceux-ci ne soient plus populaires – leurs audiences sont toujours largement enviables – mais quand on évoque désormais l’avenir souhaitable du Net, on les imagine facilement en dehors du paysage. Ces plateformes qui fantasmaient de toucher le monde entier et de mettre chaque être humain à 6 degrés de séparation des autres cèdent aujourd’hui la place à un Web fragmenté.

UN WEB FRAGMENTÉ ?

Car le Web se conjugue aujourd’hui de plus en plus au pluriel. Il n’y a plus un seul Internet – si jamais il y’en avait véritablement eu un – mais DES InternetS, communautaires et épars, qui répondent chacun à des usages, des valeurs, des habitudes différents.

L’exemple le plus flagrant est encore celui de Twitter, dont on évoquait les conséquences du rachat par Elon Musk il y a quelques mois sur ce blog. Twitter, plateforme d’échange qu’on a fantasmé universelle, s’est doucement délitée au fur et à mesure des arbitrages du millionnaire américain. Et ses membres de s’exiler sur d’autres plateformes en fonction des opportunités, des goûts ou simplement des premiers pas effectués par leurs contacts : certains sont sur Bluesky – le nouveau réseau de Jack Dorsey – d’autres sur Threads – le Twitter-like de Mark Zuckerberg – et d’autres encore, peut-être moins nombreux, ont rejoint l’archipel d’instances du Fediverse. Sans oublier dans cette diaspora, les irréductibles qui sont restés sur Twitter par indifférence ou pour affinité, ceux qui ont finalement choisi Instagram ou LinkedIn comme réseau d’expression prioritaire et ceux enfin qui ont simplement disparu des plateformes sociales.

Le Net de Twitter s’est fragmenté, et peu de ses utilisateurs peuvent encore dire aujourd’hui que leur expérience et leur réseau de contacts sont les mêmes qu’il y a ne serait-ce que deux, trois, cinq ans.

Avec le lent déclin des plateformes sociales – oh, l’écroulement total n’est pas pour tout de suite, en tout cas tant que les recettes publicitaires sont au rendez-vous – le Web se redessine donc doucement et se complexifie. Pas dans les usages bien entendu, la grande avancée des réseaux sociaux qu’est la facilité de partage et d’expression en ligne restera. Non, il se complexifie en audience.

UNE QUESTION D’AFFINITÉ

Pour qui veut prendre la parole en ligne – un influenceur, une marque, un produit, une agence… – il devient plus complexe aujourd’hui de savoir où diriger son portevoix. Les réponses faciles qu’étaient les plateformes « universelles » – tout le monde est sur Facebook ! – n’existent plus. Le gap générationnel est d’abord passé par là : les vieux sont sur Facebook, vous trouverez les jeunes sur TikTok.

Mais à cette question des générations va bientôt s’ajouter celle des affinités, des goûts, des nuances, des opinions. On ciblera sans doute bientôt les réseaux en fonction des valeurs – politiques forcément – des clients que l’on cherche à toucher. Votre message est progressiste ? Allez plutôt ici. Votre produit parle aux conservateurs, c’est sur cette plateforme qu’il faudrait parler. Vous défendez des valeurs écologiques, libertariennes, ou plutôt inclusives ? Il y a un réseau d’expression affinitaire pour votre marque.

Rien de bien nouveau direz-vous. Le médiaplanning se fait sur les sites éditoriaux et les journaux depuis la nuit des temps, et en fonction de nombreux critères d’étude et d’analyse. Tous les communicants le savent : on ne parle pas à un écologiste radical sur le Figaro, on ne fait pas la promotion des compagnies aériennes sur des sites d’information écologistes. Les groupes Facebook avaient également ouvert la voix à cette fragmentation de l’audience : même avec une régie publicitaire commune, il fallait bien au moment du setup de ses campagnes décider à qui parler sur le réseau social, et souvent en fonction de goûts ou d’affinités.

LA FIN DU MASS-MÉDIA ?

Oui, la méthode n’est pas nouvelle. Mais demain, l’échelle risque de changer : cibler une communauté partageant et s’exprimant sur ses propres espaces, habitant sa propre instance de réseau social, ou échangeant sur sa propre plateforme de messagerie, va demander plus de temps, d’étude, de préparation – ne serait-ce que pour localiser, identifier ces populations. La question se pose parfois déjà : comment s’adresse-t-on à une communauté dont la majorité des échanges a lieu sur une plateforme comme WhatsApp ou Telegram ? Ajoutez à cela l’émergence de l’intelligence artificielle et sa capacité à personnaliser l’expérience Web – Google le promet depuis déjà longtemps – et à produire et polluer massivement les plateformes digitales… peut-être que les signaux sont finalement là pour signifier la fin du Net en tant que mass-média.

Les usages des internautes évoluent en permanence, et ce depuis bientôt trente ans. Mais les prochains changements du paysage Web s’annoncent cette fois assez radicaux. Continuer à exister sur le Net n’est sans doute pas un problème immédiat, mais continuer à s’adresser aux bonnes personnes pourrait assez vite se révéler un défi.

Mais après tout, les stratèges digitaux on en vu d’autres.

Le numérique n’a pas fait de pause pendant l’été. Et pour cette rentrée 2023, les agences digitales et les directions digitales vont être confrontées à de nouveaux sujets de réflexion.

Nouveaux ? Pas vraiment… Les grands questionnements de cette nouvelle année bourgeonnent finalement depuis quelques mois, voire quelques années. Mais l’été en a rendu certains plus importants, voire pressants, que d’autres. Et les actualités de ces mois de juillet et d’août vont peut-être mener à une réorientation des stratégies de certaines marques.

Passage en revue de trois enjeux que toute entreprise devra prendre en compte dans les mois qui viennent.

La place de l’IA dans la création numérique

Le sujet n’est pas nouveau, et s’il fait moins la une des magazines professionnels, il reste dans toutes les têtes. L’intelligence artificielle, ou plutôt les modèles génératifs comme ChatGPT et Midjourney, continue de faire couler beaucoup d’encre. Mais la phase d’étonnement semble désormais passée. Sur les réseaux sociaux, les messages impressionnés par les capacités des algorithmes se font de plus en plus rares. Et les quelques cases créatifs présentés lors du Festival international de la créativité de Cannes – les fameux Lions – n’ont finalement pas raflé la mise.
On est donc très logiquement passé à l’étape suivante : l’intégration business.

Ainsi, les outils génératifs sont en train d’envahir notre quotidien bureautique, numérique et créatif. Adobe a présenté au printemps Firefly, son moteur d’intelligence artificielle intégré à Photoshop. Google continue lui à tester BARD – son interface de dialogue intelligente devant concurrencer ChatGPT – et commence à déployer sa génération suivante d’intelligence artificielle : PaLM2. Les plateformes se multiplient ainsi, et les grands groupes, tel Microsoft, continuent d’annoncer l’intégration d’IA à leurs produits et suite logicielle.

Devant la pléthore de produits et d’offres IA, la question pour l’industrie créative devient plus humaine que technologique : comment intégrer l’IA dans son écosystème économique ? Remplacer des ressources déjà précaires ? Faire évoluer ses prestations, et forcément leur tarification ? Refuser l’intrusion trop forte des algorithmes dans le monde de l’imagination ? Les prochains modèles génératifs aideront peut-être à trancher. Des rumeurs font en effet état d’une nouvelle version de ChatGTP moins performante que ses ainées, rendu confuse et imprécise par le trop de données qui lui était confiées. L’intelligence artificielle aurait-elle ses limites ?

L’éclatement des réseaux sociaux

C’est l’autre grand chamboulement de cette rentrée, même si ses prémisses datent d’il y a plus d’un an. À la suite du rachat de Twitter par Elon Musk en novembre dernier, l’ensemble des plateformes sociales qui dominaient le Net depuis une bonne dizaine d’années semblent chacun chercher leur nouveau souffle.

Twitter s’épuise. Tantôt raillé, tantôt critiqué, le réseau a coup sur coup limité ses services – le non-accès des Tweets aux non-abonnés – modifié son algorithme, changé de nom (appelez-le désormais X)… et semble de moins en moins crédible en tant que réseau social grand public. Si l’algorithme publicitaire semble bien plus généreux qu’avant, il n’est pas certain que les annonceurs se ruent encore sur les posts sponsorisés. De nombreux utilisateurs se font d’ailleurs discrets tant les messages et les prises de positions y deviennent clivants.

La guerre de succession est donc ouverte. Mastodon, son architecture décentralisée et son système d’instance, ne séduiront sans doute pas le grand public. Ce n’est d’ailleurs pas leur objectif. Et les premiers retours concernant Threads – réseau développé à la hussarde et intégré à l’écosystème Facebook – ne semblent pas probants : problème de confidentialité des données, utilisateurs fantômes… et surtout interdiction temporaire du réseau au sein de l’Union Européenne en raison de sa trop grande capacité à aspirer les données des utilisateurs.

Reste à savoir si toutes ces péripéties ne sont que les étapes préparatoires à l’émergence d’un nouveau grand réseau social populaire (peut-être TikTok ?), ou sont les derniers soubresauts d’un modèle – le Web social se voulant universel… et publicitaire – moribond.

L’impact écologique du numérique

La dernière tendance prêtera sans doute moins à sourire. La question de l’impact écologique du numérique n’a jamais été aussi urgente. On sait que la plus grande partie de la pollution, et de l’impact carbone lié au numérique est d’abord le fait de la fabrication des terminaux. Extraction des métaux rares, usinage, transport depuis les pays asiatiques jusqu’en Europe et aux USA, le bilan écologique de nos appareils est énorme, et les règles d’obsolescence édictées par certains acteurs – dont Google qui interdit les mises à jour d’application sur des OS trop anciens – doivent clairement être questionnées pour réduire celui-ci.

Mais cet été, face à la sécheresse faisant rage dans de nombreux pays européens, d’autres questions méritent d’être soulevées. Le développement de plusieurs projets de Datacenters, en Espagne notamment, pose clairement la question de l’accès à l’eau et des priorités de celui-ci : cette ressource commune doit-elle servir à l’alimentation des populations, à l’irrigation des cultures ou au refroidissement des machines stockant nos données ? Les crises hydriques vont sans doute se multiplier dans les années à venir. Elles vont rendre plus grave encore la responsabilité des entreprises dans leurs choix technologiques : peut-on solliciter des partenaires dont les installations s’établissent là où l’accès à l’eau est déjà tendu ?

Et d’une manière plus générale, l’ensemble de nos développements numériques – passés et à venir – sont-ils toujours nécessaires ? Une question qu’il semble important que dirigeants et agences se posent, dès cette rentrée.

Demain, tous masqués ?

Le New York Time annonçait il y a quelques semaines qu’il permettait désormais aux annonceurs de diffuser de la publicité sur son site en ciblant les émotions de ses lecteurs [1]. Sans être totalement inédite, la démarche est pour le moins originale… et nous permet surtout de reposer la question du traitement des émotions sur le Net. Alors, autant en profiter !

La publicité qui répond à ce que je ressens

Oui, la démarche du New-York Times est aujourd’hui unique dans le secteur de la pub digitale.

Historiquement, les grandes régies, issues des médias ou des pure-players, jouent plutôt sur les affinités pour cibler leurs publicités. On sait par exemple qu’un lecteur du Figaro va plutôt rechercher des contenus culturels ou des services haut-de-gamme. Les annonceurs de ces secteurs auront donc une plus grande performance publicitaire en annonçant dans ce journal. C’est historiquement ce degré d’affinité entre une audience et un support qui fait tourner le business de la publicité en ligne, quasiment depuis sa création.

La démarche du New York Times ne remplace bien entendu pas ce système, mais le complète avantageusement. Une marque de sport pourra ainsi apparaître sur des articles jugés « dynamiques » par les lecteurs, ou une librairie pourra annoncer sur des contenus qui « font réfléchir ». Le New York Times a retenu au final 18 critères, 18 émotions pour qualifier ses contenus et assurer un bon ciblage publicitaire. Autant de choix possibles pour les annonceurs qui voudraient insister sur les qualités intrinsèques de leurs marques.

Le Net, territoire d’émotions

Mais traquer les émotions sur le Net, ce n’est pas réellement nouveau. Internet, puisqu’il permet depuis longtemps à tous de s’exprimer, est un territoire d’émotions. En 2005, Lycos Europe lançait Jubiiblog [2], une plateforme de blog sur laquelle chacun pouvait contribuer et surtout tagguer son état d’esprit au moment de la publication de ses billets. Une plateforme qui ne résistera malheureusement pas à la fin du portail en 2008.

En fait, depuis l’ouverture du Net aux contributions individuelles – des pages persos aux blogs ou des vidéos [3] aux tweets, chaque contenu véhicule et suscite une émotion : positive ou négative, timide ou franche, partagée ou non… Le vrai défi émotionnel du Net n’a jamais été de susciter des émotions, mais plutôt de comprendre celles-ci et de savoir comment les exploiter. D’où une pléthore d’outils sémantiques apparus au cours de ces dix dernières années, et aujourd’hui boostés par l’intelligence artificielle, voulant analyser chaque message envoyé [4] aux marques pour savoir si les foules de consommateurs sont satisfaites du service rendu ou non.

En 2016, Facebook déployait une palette de réactions possibles [5] allant de l’éclat de rire à la colère, en complément de son bouton Like historique. LinkedIn a fait de même en 2019 [6] avec des boutons de réaction allant eux de l’applaudissement au questionnement. Un autre moyen de traquer l’engagement, et surtout la réaction suscitée par les contenus, sur les réseaux sociaux.

On se souviendra également, pour l’anecdote, que le changement du bouton Favori de Twitter en un bouton Like en forme de coeur avait suscité de nombreuses réactions [7]. Passer d’un marquage purement factuel à l’expression d’une émotion n’est pas « neutre », loin de là, pour l’internaute.

Emotions, manipulation

Mais que deviennent nos émotions, une fois digérées par les réseaux sociaux ? A l’instar de nos achats sur Amazon, toutes les actions sur les espaces digitaux servent aujourd’hui à alimenter des algorithmes optimisant notre consommation. Mais si sur Amazon, elles servent uniquement à pousser des recommandations de produits [8], sur Facebook, ils servent à diffuser du contenu ciblé et personnalisé.

Les « émotions », telles que les entend Facebook, ne sont bien entendu qu’une partie des données analysées par le réseau. S’y ajoutent le temps passé sur les contenus, le temps passé sur les vidéos, les commentaires que nous laissons et les profils des personnes et des marques nous ayant fait découvrir ces contenus. Cet algorithme complexe, mais légitime dans le modèle économique du réseau, dépend avant tout de notre temps passé en ligne.

De fait, l’exploitation de nos émotions sert à nous hameçonner, à nous faire passer plus de temps sur les réseaux sociaux, et par effet de bord à nous faire interagir et consommer plus de publicité. L’analyse des émotions est aujourd’hui une composante essentielle de ce qu’on appelle les Dark Patterns [9] : l’ensemble des pratiques UX qui nous poussent à consommer d’avantages.

C’est également un carburant indispensable aux stratégies publicitaires. Facebook promet aux marques de toucher les internautes qui « aiment » – comprendre par là, qui interagissent et qui consomment – certains types de contenu. C’est souvent inoffensif quand cela vous pousse simplement à regarder une nouvelle vidéo de jardinage ou de bricolage. Cela pose plus de questions quand les contenus ainsi poussés touchent à la sphères politiques et permettent d’influer sur le résultat d’élections [10].

Sur ton visage

Mais jusqu’à présent, n’étaient exploitables que les émotions que l’on voulait bien montrer. Le modèle économique de Facebook, ou le moteur de recommandation de Netflix, sont basés sur nos réactions volontaires : Like, Follow, temps passé… Libre à nous d’envisager une « grève du Like » si l’on veut que les réseaux sociaux cessent d’exploiter nos goûts.

Mais demain ? Les avancées technologiques promettent un avenir un peu plus inquiétant, notamment du fait du déploiement massif de la 5G en Chine et dans les pays occidentaux, et de sa combinaison possible avec les algorithmes de reconnaissance faciale [11]. Car si on évoque parfois l’identification des individus dangereux par le biais de caméras [12], on oublie souvent la capacité des algorithmes à aller plus loin que la reconnaissance d’un visage.

De nombreux tests ont déjà été effectués par le passé, visant à reconnaître les émotions sur un visage : joie, tristesse, angoisse [13]… On se souviendra tout particulièrement de cette analyse en direct des réactions de Mark Zuckerberg [14] lors de son audition par le sénat américain dans le cadre de l’affaire Cambridge Analytica – justement. Quid d’une reconnaissance faciale qui deviendrait, ne serait-ce qu’un temps, un détecteur de mensonge [15] et permettrait d’incriminer, ou de plaider à charge, devant les tribunaux ?

On nage en pleine science-fiction ? Peut-être… pour l’instant. Ce type d’exploitation de la reconnaissance des émotions dépendra quoi qu’il arrive de l’utilisation qui sera faite de la reconnaissance faciale dans l’espace public. Et là, deux écoles s’affrontent : San Francisco qui a décidé de bannir les algorithmes de reconnaissance de son espace public [16], et le Royaume-Uni qui lors des tests opérés par la police verbalise les passants ne souhaitant pas montrer leurs visages [17].

Emotions cachées

Reste une dernière option : prendre – enfin – conscience que les émotions telles qu’elles existent dans les espaces numériques, sont un biais. Ou en tout cas une matière bien trop complexe à gérer. La question se pose du côté d’Instagram cette fois.

Conscient des travers de son modèle d’influence, notamment sur les secteurs de la mode et des cosmétiques, Instagram ne peut décemment plus proposer à ses annonceurs un monde où la qualité des contenus se mesure au taux d’interaction. Simplement parce qu’il est trop facile de truquer ces interactions [18]… Le réseau envisage donc de ne plus faire apparaître les Likes sur ses contenus [19], histoire de ne plus tromper personne et de ne pas transformer son usage en une espèce de course à l’échalote. Ce qu’il est déjà, ne nous leurrons pas.

Et si les réseaux eux-mêmes ne peuvent se réguler, peut-être devrons-nous apprendre à masquer nous-mêmes nos émotions, soit en utilisant des lunettes empêchant toute reconnaissance faciale [20], soit en sortant masqués pour éviter caméras et algorithmes. Et ça, la science-fiction l’a déjà envisagé [21].

Maze

Le titre, et le sujet aussi, sont provocateurs.  Mais ils prennent leur source dans une véritable réflexion et dans la mise en perspective de nombre de tendances digitales établies de ces dernières années.

Le digital nous enrichit-il vraiment ?

Mais avant de s’expliquer plus avant, il serait bon de redéfinir la notion de Sérendipité, avant même de parler de Curiosité. Le mot en français n’existe pas réellement, ou en tout cas n’a pas la légitimité du terme original anglais : Serendipity. Le mot regroupe à la fois l’idée de “bonne nouvelle”, de “chance”, et de “rencontre impromptue”.

La sérendipité, ce serait la capacité à trouver ce qu’on ne cherche pas.

La possibilité de dénicher, au détour d’un parcours, d’un lien, d’un flux d’infos… une information ou une donnée qui ne nous est pas utile dans l’immédiat, qui n’est pas l’objet de notre navigation ou de notre recherche, mais qui est agréable, enrichissante ou utile dans la suite de notre vie. Une capacité à “tomber sur quelque chose”.

Il s’agit au départ de quelque chose de très physique — de matériel. La sérendipité est liée à une navigation hasardeuse : parcourir les rayons d’une bibliothèque, fouiller un bac à disques… et y trouver un auteur, un artiste, qu’on ne cherchait pas mais qui pique quand même notre curiosité…

La sérendipité est aussi quelque chose de central dans la conception même du Web à ses origines. Sans forcément dire qu’elle est un design volontaire, la sérendipité est forcément sous-jacente dans la notion d’hypertexte, ces liens qui structurent le Web. La conception originelle du Web, c’est bien cette capacité à donner accès à des informations complémentaires — sans forcément de liens directs avec l’information de base — et donc de s’écarter de son sujet d’origine pour découvrir de nouveaux pans de culture. C’est le modèle de la Wikipedia, qui par lien croisé sur différentes notions permet de passer en 4 clics de la description d’un album d’Hawkwind au fonctionnement de la turbine électrique…

Complément de la curiosité humaine, la sérendipité c’est la capacité à proposer un champ le plus large possible d’information disponible.

Des champs de culture qui se réduisent….

Or, ne sommes-nous pas en train de réduire la largeur de ce champ… Tout d’abord par le biais des usages numériques eux-mêmes. J’avais été marqué il y a quelques mois par un article du New York Times expliquant la perte de culture générale de la jeune génération par la perte de supports physiques de cette culture.

fouiller des bacs, la base de la sérendipité

Petit, je fouillais le bac à vinyles de mon père ou de mes sœurs. Le cow-boy sur la pochette d’une compilation de Johnny Cash piquait ma curiosité… même si à l’époque l’écoute du disque m’a déçu. Ce support physique, cette pochette, a été la première “prise” avec cette musique : le levier concret de la curiosité. L’approche digitale rend cette curiosité moins facile.

Physiquement d’abord : Il faut allumer l’ordinateur, la tablette, le mobile, il faut lancer l’application et lancer la musique. Ces actions se font à dessein, on sait déjà la musique que l’on veut mettre avant que l’iPod ne démarre… En usage ensuite : en 20 ans, on est passé d’un Web éditorial à un web de recherche, et nous sommes doucement en train de passer au web social.

  • En 1999, sur Yahoo!, trouver une information demandait de parcourir un annuaire et une catégorie de contenu. Et potentiellement de trouver la homepage d’un site qui ne répondait pas “exactement” à sa recherche.
  • En 2010, Google et son moteur (plus de 90% des recherches Web en Europe occidentale) ont fortement changé cet usage, et l’attente de l’internaute.

Celui-ci s’attend désormais à avoir une réponse précise à une question précise, et le plus rapidement possible. La promesse de Google est de ne pas perdre du temps et d’assurer la pertinence. Cela implique de ne plus “se perdre” — au sens flâner — dans des informations tierces, et donc de limiter au maximum son exposition à la sérendipité. Google a d’ailleurs l’ambition de répondre à de plus en plus de questions en direct. Des interfaces mobiles comme Google Assistant — ou Siri chez Apple,ou les Chatbots de Microsoft et Facebook/Messenger — préfigurent exactement cette future plateformisation des requêtes et de l’information.

Google et les autres géants digitaux veulent limiter l’exposition de l’internaute à des éléments extérieurs à leur écosystème, en affichant directement les horaires de vol, la météo ou l’information (on pensera aux développements de Google AMP ou de Facebook Instant Articles dans le monde des médias) dans leurs propres pages. D’un point de vue économique, et surtout efficacité, c’est extrêmement pertinent. Dans une société qui considère le temps disponible comme la première de ses ressources, c’est complètement en phase.

Mais il faut avoir du temps pour être curieux, il en faut plus encore pour se permettre de se “perdre”, même virtuellement… Alors que les plateformes du Web promettent de l’efficacité.

Un environnement social peuplé de clones ?

Ajoutons à cela les réseaux sociaux. Ils sont aujourd’hui, pour les plus jeunes générations, la véritable porte d’entrée du Net (et plus du Web). Facebook notamment, mais aussi Snapchat ou Whatsapp.

Ils sont de formidables vecteurs de conversation — utilisateur d’IRC il y a 20 ans, je suis convaincu de la puissance relationnelle et conversationnelle d’Internet — mais ils sont aussi de terribles « limitateurs d’horizon ». L’accès à Facebook se fait par un réseau d’amis et de pages — ou de marques — avec lesquelles je me suis identifié comme affinitaire. Potentiellement, je vais donc m’exposer à l’information provenant d’une communauté fermée — au sens limitée en envergure et peu livrée au hasard — et bien souvent construite à mon image, à mes goûts.
C’est un travers humain normal : j’échange plus facilement avec des personnes dont je partage les intérêts ou les penchants. Mais reporter ces partages d’intérêts à un groupe de 500, voire 1000 contacts sur Facebook garantit forcément à un phénomène d’amplification rapide des mêmes messages.

Il faudrait se pencher à nouveau en détail sur les notions d’appartenance et de micro-culture que Chris Anderson détaillait il y a 10 ans dans The Long Tail.

Cet ouvrage structurant pour la pensée digitale est finalement toujours d’actualité. Il l’est peut-être plus encore à l’heure des communautés digitales fortes, et permet d’appréhender bien des comportements du Net et la capacité à partager autour d’un socle commun de culture digitale.

Le phénomène des mêmes est y également lié dans une certaine mesure… Il contribue à constituer des micro-communautés culturelles auxquelles nous nous soumettons et qui restreignent notre champ de recherche. L’émergence d’un Instagram, d’un Snapchat ou Whatsapp sur ce point est encore plus marquant, Il s’agit bien souvent de réseaux fermés, où la logique d’hypertexte structurante pour le Web n’existe plus. Et pour prendre l’exemple de Snapchat, où la prise de contact “au hasard” n’est plus possible — il faut connaître l’identifiant ou le numéro de téléphone de quelqu’un pour échanger avec lui. Les chances d’exposition à un contenu non “validé” ou “moulé” par la micro-communauté sont d’autant plus minces. L’influence des micro-cultures et les risques de clonages sont d’autant plus forts.

D’autant que ces réseaux — Facebook, mais aussi Instagram ou Twitter dans une certaine mesure — se donnent comme mission de favoriser l’engagement. Un terme vaste, quasi impossible à définir, mais qui désignerait en gros l’intérêt d’une personne pour un contenu, son temps de cerveau disponible — pour reprendre une formulation qui aura fait polémique en France — la part de ce temps de cerveau qu’il est prêt à consacré à une information. Cela se concrétise par une lecture, un “Like”, un partage… Une unité mesurable d’intérêt qui n’a pas réellement de prix mais devient un objectif en soi dans le monde digital de l’engagement.

Brand Content et Data, cocktail dépressif ?

Cette économie de l’attention a provoqué deux changements majeurs dans le pilotage des activités digitales : la Programmatique et le Brand Content.

La programmatique, c’est le “tout algorithme”. Des ordinateurs se chargent de décortiquer vos habitudes pour connaître ce qui vous engagent le plus et déterminent ainsi les contenus qui ont le plus de chance de prolonger cet engagement.

Vous êtes abonnés à l’Equipe et Foot365 et likez régulièrement les actualités parlant du PSG ? Il y a fort à parier que l’algorithme vous poussera en priorité des contenus liés au championnat de France de football ou à la Ligue des Champions…

Publicité ciblée, comme dans les films

De fait, les algorithmes régissent la majorité des expositions médias en lignes : la timeline de Facebook n’est pas linéaire, celle d’Instagram non plus, et la majorité des publicités servies sur le Web le sont par des plateformes programmatiques. Si on parle réseaux sociaux et publicité, 80% des contenus que l’on consulte sont exposés à nos yeux sans décision humaine, mais par un robot qui pense que nous avons beaucoup de “chance” — statistiquement parlant — d’aimer et de consulter ce contenu.

Le Brand Content, marketing de contenu à la mode, découle également de cette logique d’engagement. Il y est même directement lié. La perte de prise de la publicité traditionnelle — causée principalement par Adblock et les changements de supports digitaux, c’est à dire cette plateformisation et l’utilisation des réseaux sociaux comme porte d’entrée du Net — impose aux marques d’autres méthodes de prise de parole.

Le contenu — texte, image, vidéo — se prête merveilleusement aux habitudes de consommation digitale actuelles, cherchant toujours cette capacité à profiter de l’attention disponible, à générer de l’engagement. Le discours des marques devient en conséquence lui-même programmatique, prévisible.

Pour toucher un internaute, on va utiliser les codes de communication et le socle culturel qu’il connaît, non pas pour le “surprendre” — l’exposer à de l’inédit — mais pour y raccrocher l’univers de la marque que l’on promeut.

La tendance au News-Jacking qui fait rage sur Twitter notamment, ce détournement d’une actualité par Oasis ou Voyages-SNCF, n’est que ça : intégrer la marque dans l’univers culturellement rassurant de l’internaute. Rien d’autres.

Plaire au public pour augmenter son audience ?

Et l’émergence des médias spécialisés sur une cible jeune — Melty en France, Buzzfeed à l’international, en sont la parfaite illustration, la nouvelle génération des Youtubers dont ils se portent garant également — n’est que l’expression économique de cette stratégie. Buzzfeed ne promet pas de créativité, il promet de faire entrer une marque dans l’univers culturel identifié et fermé de la cible jeune. De faire entrer l’histoire d’une marque — souvent longue et riche — dans un moule de communication restreint. Et forcément d’appauvrir son imaginaire de référence. La presse traditionnelle investit d’ailleurs ce même créneau avec le lancement de sites et de titres de plus en plus accès sur des niches d’opinion ou de culture : le but est simple, faire coller à des sujets de sociétés un traitement qui soit proche – culturellement – des cibles vidées.

Pour Vice, toute information est à traiter sous un angle pseudo-pornographique ou choquant. Pour Slate, tout est polémique et urbain.

Ce n’est pas une ouverture des points de vue du lectorat, c’est une restriction de la thématique pour la faire entrer dans un cadre culturelle défini.

Quelle place laissée au hasard ?

Au final, le portrait n’est pas reluisant : entre numérisation, recherche, communauté, algorithme et Brand Content, quelles sont les réelles chances pour un internaute d’être exposé — ou d’avoir l’opportunité d’être exposé — à de l’inédit ?

Elles se réduisent au fur et à mesure de l’évolution des usages, et au fur et à mesure que le “temps disponible” des consommateurs se voit grignoter par des suggestions et des « Vous aimerez aussi ».
Pourtant, les solutions existent. Différentes interfaces comme celles de la Wikipedia ou de Tinder, des plateformes de curation humaine et de mise en relation comme Twitter sont autant de pistes par lesquelles pourrait revenir la surprise dans le quotidien des internautes.

Mais être curieux demande du temps, de la disponibilité. La sérendipité demande du temps libre… Et tout l’objectif du digital aujourd’hui est d’exploiter le temps libre et d’en maximiser la valeur… En diminuant la place laissée à l’errance et au hasard. Alors luttons, pour garder le temps d’être curieux !