Articles

Demain, tous masqués ?

Le New York Time annonçait il y a quelques semaines qu’il permettait désormais aux annonceurs de diffuser de la publicité sur son site en ciblant les émotions de ses lecteurs [1]. Sans être totalement inédite, la démarche est pour le moins originale… et nous permet surtout de reposer la question du traitement des émotions sur le Net. Alors, autant en profiter !

La publicité qui répond à ce que je ressens

Oui, la démarche du New-York Times est aujourd’hui unique dans le secteur de la pub digitale.

Historiquement, les grandes régies, issues des médias ou des pure-players, jouent plutôt sur les affinités pour cibler leurs publicités. On sait par exemple qu’un lecteur du Figaro va plutôt rechercher des contenus culturels ou des services haut-de-gamme. Les annonceurs de ces secteurs auront donc une plus grande performance publicitaire en annonçant dans ce journal. C’est historiquement ce degré d’affinité entre une audience et un support qui fait tourner le business de la publicité en ligne, quasiment depuis sa création.

La démarche du New York Times ne remplace bien entendu pas ce système, mais le complète avantageusement. Une marque de sport pourra ainsi apparaître sur des articles jugés « dynamiques » par les lecteurs, ou une librairie pourra annoncer sur des contenus qui « font réfléchir ». Le New York Times a retenu au final 18 critères, 18 émotions pour qualifier ses contenus et assurer un bon ciblage publicitaire. Autant de choix possibles pour les annonceurs qui voudraient insister sur les qualités intrinsèques de leurs marques.

Le Net, territoire d’émotions

Mais traquer les émotions sur le Net, ce n’est pas réellement nouveau. Internet, puisqu’il permet depuis longtemps à tous de s’exprimer, est un territoire d’émotions. En 2005, Lycos Europe lançait Jubiiblog [2], une plateforme de blog sur laquelle chacun pouvait contribuer et surtout tagguer son état d’esprit au moment de la publication de ses billets. Une plateforme qui ne résistera malheureusement pas à la fin du portail en 2008.

En fait, depuis l’ouverture du Net aux contributions individuelles – des pages persos aux blogs ou des vidéos [3] aux tweets, chaque contenu véhicule et suscite une émotion : positive ou négative, timide ou franche, partagée ou non… Le vrai défi émotionnel du Net n’a jamais été de susciter des émotions, mais plutôt de comprendre celles-ci et de savoir comment les exploiter. D’où une pléthore d’outils sémantiques apparus au cours de ces dix dernières années, et aujourd’hui boostés par l’intelligence artificielle, voulant analyser chaque message envoyé [4] aux marques pour savoir si les foules de consommateurs sont satisfaites du service rendu ou non.

En 2016, Facebook déployait une palette de réactions possibles [5] allant de l’éclat de rire à la colère, en complément de son bouton Like historique. LinkedIn a fait de même en 2019 [6] avec des boutons de réaction allant eux de l’applaudissement au questionnement. Un autre moyen de traquer l’engagement, et surtout la réaction suscitée par les contenus, sur les réseaux sociaux.

On se souviendra également, pour l’anecdote, que le changement du bouton Favori de Twitter en un bouton Like en forme de coeur avait suscité de nombreuses réactions [7]. Passer d’un marquage purement factuel à l’expression d’une émotion n’est pas « neutre », loin de là, pour l’internaute.

Emotions, manipulation

Mais que deviennent nos émotions, une fois digérées par les réseaux sociaux ? A l’instar de nos achats sur Amazon, toutes les actions sur les espaces digitaux servent aujourd’hui à alimenter des algorithmes optimisant notre consommation. Mais si sur Amazon, elles servent uniquement à pousser des recommandations de produits [8], sur Facebook, ils servent à diffuser du contenu ciblé et personnalisé.

Les « émotions », telles que les entend Facebook, ne sont bien entendu qu’une partie des données analysées par le réseau. S’y ajoutent le temps passé sur les contenus, le temps passé sur les vidéos, les commentaires que nous laissons et les profils des personnes et des marques nous ayant fait découvrir ces contenus. Cet algorithme complexe, mais légitime dans le modèle économique du réseau, dépend avant tout de notre temps passé en ligne.

De fait, l’exploitation de nos émotions sert à nous hameçonner, à nous faire passer plus de temps sur les réseaux sociaux, et par effet de bord à nous faire interagir et consommer plus de publicité. L’analyse des émotions est aujourd’hui une composante essentielle de ce qu’on appelle les Dark Patterns [9] : l’ensemble des pratiques UX qui nous poussent à consommer d’avantages.

C’est également un carburant indispensable aux stratégies publicitaires. Facebook promet aux marques de toucher les internautes qui « aiment » – comprendre par là, qui interagissent et qui consomment – certains types de contenu. C’est souvent inoffensif quand cela vous pousse simplement à regarder une nouvelle vidéo de jardinage ou de bricolage. Cela pose plus de questions quand les contenus ainsi poussés touchent à la sphères politiques et permettent d’influer sur le résultat d’élections [10].

Sur ton visage

Mais jusqu’à présent, n’étaient exploitables que les émotions que l’on voulait bien montrer. Le modèle économique de Facebook, ou le moteur de recommandation de Netflix, sont basés sur nos réactions volontaires : Like, Follow, temps passé… Libre à nous d’envisager une « grève du Like » si l’on veut que les réseaux sociaux cessent d’exploiter nos goûts.

Mais demain ? Les avancées technologiques promettent un avenir un peu plus inquiétant, notamment du fait du déploiement massif de la 5G en Chine et dans les pays occidentaux, et de sa combinaison possible avec les algorithmes de reconnaissance faciale [11]. Car si on évoque parfois l’identification des individus dangereux par le biais de caméras [12], on oublie souvent la capacité des algorithmes à aller plus loin que la reconnaissance d’un visage.

De nombreux tests ont déjà été effectués par le passé, visant à reconnaître les émotions sur un visage : joie, tristesse, angoisse [13]… On se souviendra tout particulièrement de cette analyse en direct des réactions de Mark Zuckerberg [14] lors de son audition par le sénat américain dans le cadre de l’affaire Cambridge Analytica – justement. Quid d’une reconnaissance faciale qui deviendrait, ne serait-ce qu’un temps, un détecteur de mensonge [15] et permettrait d’incriminer, ou de plaider à charge, devant les tribunaux ?

On nage en pleine science-fiction ? Peut-être… pour l’instant. Ce type d’exploitation de la reconnaissance des émotions dépendra quoi qu’il arrive de l’utilisation qui sera faite de la reconnaissance faciale dans l’espace public. Et là, deux écoles s’affrontent : San Francisco qui a décidé de bannir les algorithmes de reconnaissance de son espace public [16], et le Royaume-Uni qui lors des tests opérés par la police verbalise les passants ne souhaitant pas montrer leurs visages [17].

Emotions cachées

Reste une dernière option : prendre – enfin – conscience que les émotions telles qu’elles existent dans les espaces numériques, sont un biais. Ou en tout cas une matière bien trop complexe à gérer. La question se pose du côté d’Instagram cette fois.

Conscient des travers de son modèle d’influence, notamment sur les secteurs de la mode et des cosmétiques, Instagram ne peut décemment plus proposer à ses annonceurs un monde où la qualité des contenus se mesure au taux d’interaction. Simplement parce qu’il est trop facile de truquer ces interactions [18]… Le réseau envisage donc de ne plus faire apparaître les Likes sur ses contenus [19], histoire de ne plus tromper personne et de ne pas transformer son usage en une espèce de course à l’échalote. Ce qu’il est déjà, ne nous leurrons pas.

Et si les réseaux eux-mêmes ne peuvent se réguler, peut-être devrons-nous apprendre à masquer nous-mêmes nos émotions, soit en utilisant des lunettes empêchant toute reconnaissance faciale [20], soit en sortant masqués pour éviter caméras et algorithmes. Et ça, la science-fiction l’a déjà envisagé [21].