L’actualité technologique de l’été qui s’achève met, encore, à l’honneur les avancées et les inquiétudes qui entourent l’intelligence artificielle. On y parle en vrac de jeux vidéo et de voitures autonomes. Mais on y voit surtout l’occasion de rappeler une fois de plus que sans DATA, l’intelligence artificielle n’est finalement pas grand-chose.

Quand les immeubles sortent de terre…

D’abord, Microsoft Flight Simulator [1]. Le légendaire simulateur de vol est revenu cette année dans une nouvelle édition après quelques années d’absence. Et cette version permet de survoler l’intégralité du globe terrestre aux commandes de l’avion de votre choix. Pour arriver à cette prouesse – la modélisation de la Terre entière – Microsoft s’est basé sur les données géographiques disponibles dans l’Open Street Map Project [2] – un projet cartographique collaboratif mondial qui concurrence ouvertement les applications de Google et d’Apple.

Cette utilisation d’une base collaborative et open-data a permis aux développeurs du jeu de générer rapidement et à moindre coût l’ensemble des décors qui leur étaient nécessaires. Avec toutefois quelques surprises. Ainsi, les joueurs survolant Melbourne, en Australie, ont eu la surprise de découvrir dans les faubourgs de la ville une tour de plusieurs centaines de mètres de hauteur, là où n’existent dans la réalité que de bien classiques pavillons de banlieue [3]. La faute à… une faute de frappe. L’un des contributeurs d’Open Street Map aura, peu de temps avant la récupération des données par Microsoft, complété les données de ce quartier de Melbourne et indiqué que l’un des bâtiments comporte 212 étages au lieu de… deux.

Une simple erreur, certes, mais une erreur qui n’a pas été détectée par l’intelligence artificielle chargée de créer l’ensemble des décors du jeu. D’ailleurs, l’utilisation de celle-ci a également fait l’objet de critique de la part de nombre de joueurs. En effet, pour l’IA de Microsoft, un bâtiment est un bâtiment comme un autre, et un pont et un pont comme un autre, quels que soient son importance et son aspect patrimonial. Ainsi, le Palais de Buckingham à Londres s’est vu doté du même look qu’un immeuble de bureau quelconque [4], et le pont du port de Sydney a perdu ses célèbres arches [5]. Des maladresses qui seront corrigées prochainement par les concepteurs du jeu, mais qui montrent bien les limites d’une IA dans la reproduction de la diversité terrestre.

… et que les voitures freinent toutes seules

Plus inquiétante est l’expérience menée par des scientifiques israéliens au cours du mois d’août. A l’aide d’un drone équipé d’un projecteur, ceux-ci ont réussi à tromper les capteurs d’une voiture autonome de type Tesla [6]. En projetant l’image d’un piéton ou d’une autre voiture, ils ont ainsi provoqué un freinage d’urgence de la part du véhicule. Mais plus grave, en projetant des lignes au sol, ils ont réussi à faire dévier la Tesla – alors en mode autonome – de sa trajectoire initiale. On peut imaginer à partir de cette expérience tout type de manipulation de l’intelligence artificielle qui conduit le véhicule : de nouveaux panneaux, des limitations de vitesse fantaisiste et pourquoi le « masquage » de certains éléments réels de l’environnement.

Tromper les capteurs d’une voiture autonome n’est pas une idée nouvelle. Un artiste anglais, James Bridle, avait déjà imaginé en 2017 un Car Trap [7], un cercle qui prendrait au piège les véhicules autonomes et les empêcherait de s’échapper. Une vue d’artiste qui révèle les lacunes du système.

Une IA, ça ne doute pas

Ces deux expériences ne sont que des extraits de l’actualité qui a entouré l’IA au cours des derniers mois. Elles ne reflètent pas, par exemple, les progrès enregistrés par les chercheurs dans les domaines médicaux grâce aux programmes d’intelligence artificielle. Mais, sans invalider la notion même d’IA, elles nous font nous poser quelques questions cruciales pour la maîtrise de cette technologie qui semble appeler à dominer nos vies.

Qu’est-ce qui fait, pour une intelligence artificielle, la véracité d’une donnée ? Le moteur de rendu de Microsoft Flight Simulator ne s’est pas posé la moindre question avant de représenter une tour de 212 étages au milieu des faubourgs de Melbourne. Pas plus que l’intelligence artificielle de la Tesla quand elle a vu apparaître une silhouette humaine face à elle. Les intelligences artificielles, tout comme les algorithmes simples, ne sont pas conçus aujourd’hui pour s’assurer de la véracité, et encore de moins de la réalité, d’une donnée. Ils sont conçus pour traiter des données en entrée et en déduire le comportement le plus adapté : quelle texture appliquer à un immeuble, dans quelle direction aller, etc.

Que se passe-t-il donc quand la donnée qui leur est fournie est fausse ? Volontairement ou non. Quand une erreur s’est glissée dans un fichier ? Quand une manipulation a été faite avec une intention peu louable ? Ou simplement lorsqu’une information est manquante et que la Data ne permet pas une prise de connaissance complète de l’environnement ?

Et l’état, les intelligences artificielles dont on parle régulièrement ne détectent bien souvent pas ces erreurs ou ces manipulations – sauf si elles sont conçus spécifiquement pour cela comme celles qui traquent au quotidien les deepfakes [8] – même si elles mènent à des aberrations. Une IA, par définition, ne doute pas. Il est donc crucial, à mesure que les algorithmes prennent de la place dans notre quotidien, de savoir qui maîtrise la réalité et de s’assurer – faute d’instiller du doute chez les robots – de la fiabilité de toutes les informations utilisées par nos futurs systèmes.

La leçon vaut pour tout système qui entend traiter automatiquement de l’information. A l’heure où il n’a jamais été aussi facile de créer du contenu – qu’il s’agisse de faux profils sur les réseaux sociaux [9] ou de faux articles dans les revues scientifiques [10] – et parfois d’articles créés à l’aide d’une intelligence artificielle [11] – il convient d’être de plus en plus prudent avant d’affecter un traitement à une données. La vérification des données, mais également leur certification, doit devenir un point crucial de la politique numérique des entreprises. A défaut, aucun déploiement d’intelligence artificielle ne pourra se faire sans danger.

Alors, si vous ne voulez pas rater la révolution de l’IA, commencer par maîtriser celle de la DATA.

Le mois dernier, j’ai tué deux sites internet.

Deux blogs, dédiés au marketing et aux nouvelles technologies. Plus de 500 articles si ma mémoire ne me trompe pas. Plus de 5 années d’écriture sur les évolutions de nos métiers. Quelques giga-octets d’images et de base de données qui, il faut bien l’avouer, n’intéressaient plus réellement les foules.

Deux noms de domaine qui seront récupérés rapidement, n’en doutons pas, par quelques mineurs d’audience et chasseurs de liens.

Le mois dernier, j’ai tué deux sites Web.

Et c’est l’occasion de se poser la question de l’hygiène du Web et du rôle de notre environnement préféré dans la sauvegarde du savoir humain, mais aussi dans la sauvegarde de la planète.

CONSERVER LA MÉMOIRE DU MONDE

L’ambition de faire du Net une bibliothèque universelle ne date pas d’hier. Elle date même de bien avant son invention. Déjà, dans les premières ébauches de ce qui deviendra le Web – qu’il s’agisse du Memex [1] de Vannevar Bush dans les années 1940 ou de la volonté de mise en réseau des ordinateurs de l’ARPANET [2] – il y a cette volonté de rendre le maximum d’informations disponible à tous par l’intermédiaire des outils informatiques. C’est le Web de Tim Berners-Lee [3] en 1990 va permettre de concrétiser enfin cette ambition.

Aujourd’hui, tout se numérise, tout se sauvegarde et tout se partage, du plus noble des contenus au plus insignifiant des textes. S’il fallait lister les initiatives d’enregistrement de la connaissance humaine, un blog entier n’y suffirait pas. Dans la prolongation des travaux d’archivage initiés les siècles précédents, le Net donne accès aujourd’hui à une grande partie de la connaissance humaine.

On y trouve des textes, bien entendu, allant de l’ensemble des archives déjà numérisées un peu partout dans le monde – on ne citerait que Gallica [4] pour les archives françaises –aux partages de connaissance de la Wikipédia [5]. On y trouve des images, via là encore les fonds des plus grandes bibliothèque (par exemple, la bibliothèque du Congrès américain [6]) mais également les contributions régulières des inconnus sur les plateformes de partage d’images comme Flickr ou Instagram. On y trouve de la vidéo et du son… bref, on y trouve de tout.

madelen, la plateforme de VOD de l’INA.

Le Net, on le sait, a contribué à sauver bien des contenus et à rendre accessibles à tous bien des témoignages du génie humain. Des films oubliés retrouvent une nouvelle vie grâce au site Archives.org [7]. Les collections des grands musées mondiaux sont accessibles au plus grand monde, et sans se déplacer, grâce aux initiatives de Google [8]Et le Net s’archive également lui-même, pour ne rien perdre de son histoire grâce à la désormais célèbre WayBack Machine [9].

ET PARFOIS, OUBLIER…

Bien entendu, il y a parfois des couacs. Comme les musées [10] et les bibliothèques réelles peuvent brûler, les bibliothèques digitales peuvent elles aussi disparaître, volontairement ou non.

Ceux qui comme moi ont travaillé il y a longtemps chez un hébergeur – gratuit pour ma part – se souviennent de l’angoisse à la perte d’un serveur et de l’ensemble des données qu’il pouvait contenir. On a vu ainsi, chez MultiMania, des centaines de sites Web personnels s’effacer suite au crash d’un disque dur. Et même si le parallèle avec les disparitions majeures d’archives culturelles [11] est difficile à soutenir, ces contenus sont bien une part de la mémoire collective de l’humanité.

Au cours des dernières années, le Net a procédé à bien des suppressions de contenu, volontaires ou non. Ainsi, Tumblr a supprimé de nombreux blogs et photos lors de sa session par Yahoo! en 2018, suite à un changement de ses règles de modération et au refus d’héberger des contenus jugés pornographiques [12]. Myspace, le réseau star des musiciens qui a contribué à révéler, notamment, les Arctic Monkeys, a perdu en 2019 la quasi-intégralité des enregistrements qu’il hébergeait avant 2012 [13].

Les couacs existent. La mémoire digitale comme toute mémoire est faillible.

MARIE KONDO ET LES RÉSEAUX SOCIAUX

On ne s’y trompera pas. Si elle connaît quelques couacs, l’entreprise globale de sauvegarde du savoir de l’Humanité que représente internet est salutaire.

Mais jusqu’où est-il pertinent de conserver ou de donner accès à des archives ? La capacité sans limite du monde virtuel – sans limite car non matériel – fait qu’on ne se pose plus la question du « raisonnable ». Puisque tout est enregistrable, tout doit être enregistré. Puisque tout peut être consulté, tout doit être consultable.

On arrive alors à un paradoxe : l’information ne meurt plus.

Auchan sur YouTube, 8 ans de vidéos disponibles en ligne.

On parlera bien entendu des boîtes emails [14] qui ne désemplissent plus, mais également des comptes sociaux des grandes entreprises qui conservent, ad nauseam, une trace du passé. C’est ainsi qu’une chaîne YouTube comme celle des hypermarchés Auchan [15] garde trace des recettes de cuisine postées il y a plus de 8 ans. Certes, les recettes de Cabillaud aux vapeurs d’aneth et carottes râpées [16] sont intemporelles. Mais 8 ans après ces publications, le compte Auchan a vu passé des centaines d’autres contenus… et il y a peu de chance que les algorithmes de la plateforme vidéo de Google fassent aujourd’hui remonter cette vidéo en particulier face aux centaines d’autres recettes de cabillaud vapeur [17] qui occupent l’inventaire de YouTube. Le cabillaud d’Auchan fait partie de ces archives oubliées, qui ne servent a priori plus la marque – même si les statistiques peuvent me contredire – mais qui occupent toujours de l’espace quelque part dans un data center. Une sorte de décharge oubliée.

A l’instar de ce qu’à préconiser un temps Marie Kondō [18], ne serait-il pas pertinent de ne conserver sur les réseaux sociaux des marques uniquement les 3 contenus qui procurent réellement du bonheur ?

ÉCRIRE, MAIS PAS POUR LES HUMAINS

Mais il y a plus vicieux, il y a également le contenu qui, même périmé, est conçu pour attirer. On le sait, les algorithmes des moteurs de recherche et des réseaux sociaux s’alimentent de contenu. Plus ces contenus sont nombreux, plus ils peuvent avoir de poids dans les logiques de classement et de mise en avant des sites. C’est bien entendu loin d’être le composant principal d’un bon SEO ou d’une bonne visibilité sur les réseaux sociaux, mais c’est un argument non négligeable pour bien des marques : un site à l’inventaire important apparaît mieux dans Google qu’un site ne proposant qu’une vingtaine de pages.

C’est particulièrement vrai pour les sites de e-Commerce, qui veillent donc à renforcer leur contenu et leur inventaire pour répondre aux jeux de requêtes les plus vastes possible. Ainsi, Cultura – l’enseigne française de biens culturels et de loisirs créatifs – propose sur son site de nombreux livres dont certains sont épuisés depuis longtemps. Pour exemple :

Cultura propose à la vente des livres en rupture de stocks depuis longtemps

Un ouvrage publié en 2002 [19]. Une maison d’édition disparue en 2013 [20]. Une version de logiciel produite en 2001 et une plateforme dont l’abandon a d’ailleurs été annoncé en juillet 2017 par Adobe [21]. Cet ouvrage, et beaucoup d’autres, n’a que peu de chance d’être commandé en ligne, et encore moins de chance d’être livré en boutique. Il est épuisé et passé au pilon depuis longtemps. Cultura ne proposant pas, au contraire d’Amazon, de marketplace, il ne sera pas non plus vendu d’occasion par un tiers. Quel est alors l’intérêt de proposer, dans son catalogue, de tels contenus, si ce n’est proposer aux moteurs de recherche un maximum de contenus ?

On a déjà détaillé par le passé les stratégies du Bruit [22], consistant à produire du contenu en masse afin de satisfaire les algorithmes des moteurs de recherche et des réseaux sociaux, mais il y a autre chose derrière ces quelques exemples : il y a une incapacité du Net à se réguler.

BEAUCOUP DE NEGLIGENCE

Bien entendu, tout n’est pas que mauvaise intention parmi les quelques exemples cités plus haut. Une vidéo postée il y a 8 ans sur les réseaux sociaux, on l’oublie vite. Elle se trouve rapidement poussée tout en bas de scroll par de nouveaux contenus, plus à la mode, plus performants, plus en phase avec la marque. Le travail de production de contenu à destination des plateformes sociales est déjà si chronophage qu’on hésite à accuser les pauvres Community manager de ne pas nettoyer derrière eux.

De même, les gestionnaires des bases de données – comme celles où s’indexent les publications des principales maisons d’édition – sont là avant tout pour garantir la fraicheur du catalogue, la prompte disponibilité des futurs hits de la rentrée littéraire. Difficile de trouver le temps de nettoyer les références caduques.

Il y a beaucoup de négligence : la négligence de ne pas penser aux conséquences de ses contenus – comme on ne pense pas à la consommation d’eau en se brossant les dents – et la négligence de ne pas penser des systèmes prenant en compte leur propre fin de vie.

Il y a, à bien une réfléchir, une discipline de l’UX à imaginer : l’UX de l’hygiène digitale.

Elle consisterait à concevoir, dès les premiers pas d’un produit numérique, la façon dont celui-ci cessera d’impacter son environnement. L’effacement des données, la réduction des accès aux références disparues, la gestion des historiques inutiles… une discipline qui

MAIS AUSSI UN PEU DE MALVEILLANCE

Mais la négligence n’explique pas tout. L’industrie digitale a horreur du vide, des domaines inutilisés ou des contenus caduques. L’industrie numérique ne jette rien. Ou en tout cas pas volontairement. Tous ceux qui ont, il y a dix ou vingt ans créés des sites Internet peuvent témoigner : les sites Web ne meurent pas.

L’invasion des sites zombies

Ces deux domaines qui j’ai abandonnés le mois dernier, gageons qu’ils ne sont pas restés inutilisés longtemps. Leur historique, leur ancienneté aura attiré quelques Growth Hacker ou quelques négociant indépendant de trafic. Ces deux sites vivent désormais leur vie comme, non pas des projets éditoriaux, mais des espaces digitaux destinés à draguer des liens vers d’autres sites Web, et à diffuser de la publicité vendue au clic ou à la vue. Ils aident Google à rester indéboulonnable et à nourrir un écosystème numérique qui tourne en boucle.

Les sites web morts permettent à d’autres sites web morts de ressusciter et à générer en boucle cet Internet du Bruit.

Est-ce que cela en vaut la peine ? La logique capitaliste de la publicité digitale ne se pose pas la question : le Web vu par les référenceurs et les marketeurs n’est qu’une bulle en croissance. En croissance de domaine, en croissance de page, en croissance de publicité, en croissance de revenus… et malheureusement en croissance de stockage.

L’HYGIÈNE DU NUMÉRIQUE, LA RESPONSABILITÉ DE TOUS

Les préoccupations sont nombreuses aujourd’hui autour de l’impact de l’économie numérique sur le dérèglement climatique. Les doutes eux ne sont plus permis. On le sait, l’industrie numérique dans son ensemble – loisir et professionnel, matériel et logiciel… – pollue aujourd’hui plus que le transport aérien [23]. L’impact de nos outils digitaux en France sont l’équivalent de 6,2% de la consommation d’énergie de l’hexagone et de plus de 5% de ses émissions de gaz à effet de serre [24].

Il est inconscient, voire irresponsable, de penser que nos petits sites Web et nos vidéos ne sont qu’une goutte d’eau dans la pollution globale que subit la planète. L’industrie numérique, c’est aujourd’hui une foule de professionnels qui produisent en boucle du CO² pour une meilleure visibilité sur les moteurs de recherche et des vues supplémentaires dans les réseaux sociaux.

A l’heure où des mesures [25] pour lutter contre l’impact écologique du numérique commencent à être évoquées, comme la fin des forfaits de connexion illimités [26], il serait peut-être temps que l’industrie libérale du digital prenne des mesures d’hygiène pour sa propre sauvegarde. Et sans parler de décroissance, qu’elle apprenne à tout le moins à concevoir des outils digitaux propres et à nettoyer derrière elle.

C’est devenu une habitude depuis plus de vingt ans. Google annonce régulièrement des mises à jour de son algorithme de classement des sites Web et édicte tout aussi régulièrement des recommandations quant à la façon de créer, maintenir et faire vivre les sites Web. Parfois, ces recommandations concernent le contenu, d’autres fois la technique ou la façon dont les sites Web sont liés entre eux par l’intermédiaire de liens.

Les dernières communications de Google, fin mai, suivent une tendance de fond dans les recommandations du moteur : faire de l’UX, c’est désormais aussi faire du SEO.

A la découverte des Core Web Vitals

Retour sur lannonce de fin mai. Google a rendu disponible dans sa Search Console un rapport dédié à ce qu’il appelle les Core Web Vitals, trois nouvelles données qui évaluent la vitesse de chargement d’un site et surtout la façon dont celui-ci se comporte à l’écran face aux internautes. Ces trois nouvelles données s’ajoutent à l’estimation du temps de chargement des pages (FCP, First Content Paint) qui existait déjà dans différents outils fournis par Google.

Si l’on veut résumer, et comprendre, ce que sont désormais les Signaux Web Vitaux pour Google, voici ce qu’il faudrait retenir :

  • FCP – First Content Paint : premier indicateur, il évalue le temps de chargement initial de votre page, c’est-à-dire le temps que met à apparaître à l’écran le premier élément graphique, qu’il s’agisse de texte, d’image ou de n’importe quel autre type d’élément. Avant ce premier affichage, le visiteur de votre site ne voit sur son écran de smartphone qu’une page blanche, et peut donc légitimement se demander si votre site fonctionne.
  • FID – First Input Delay : en complément, cet indicateur mesure le temps que met à apparaître le premier élément interactif de votre page, lien ou champ de formulaire. Il mesure donc, en complément, le temps d’inactivité potentiel de l’internaute. Avant cet événement, le visiteur de votre site doit se contenter de regarder l’affichage des éléments mais ne peut cliquer pour afficher un contenu plus précis ou accéder à une autre page de contenu. Autant de temps perdu si votre visiteur est décidé sur les actions qu’il veut mener.
  • LCP – Largest Contentful Paint : avec cet indicateur, Google continue son exploration du chargement des pages. Il mesure ici le temps que met à apparaître à l’écran le contenu qu’il juge le plus important sur celle-ci. Il s’agit en général d’une photo, mais cela peut également être une vidéo ou un paragraphe de texte particulièrement long. Le chargement de cet élément peut donner à l’internaute que la page est complète, ou en tout cas qu’il peut commencer à interagir sans manquer une information cruciale pour la suite de son parcours
  • CLS – Cummulative Layout Shift : dernier indicateur, il mesure la stabilité de la page. Vous l’avez tous vécu, rien n’est plus énervant que ce moment où vous vous apprêtez à cliquer sur un lien et que le bandeau d’acceptation des cookies fait brusquement bouger. Au mieux, il ne se passe rien, au pire, vous avez alors cliqué sur une bannière publicitaire. Google privilégie les pages « stables », c’est-à-dire dans lesquelles aucun élément ne change de place au cours du chargement.

On le voit bien, ces quatre indicateurs ne sont pas uniquement techniques – même s’ils dépendent énormément de l’optimisation techniques des sites Web. Ils concernent avant tout l’expérience utilisateur.

Pour vous donner une idée de l’impact de ces indicateurs sur l’expérience utilisateur, le rapport PageSpeed Insights évolue d’ailleurs et présente désormais un aperçu visuel du chargement des pages, sous forme de vignettes. Une bonne façon de voir les délais de chargement de chaque élément de vos pages.

Google l’a annoncé, les trois nouveaux indicateurs communiqués fin mai – FID, LCP et CLS – sont aujourd’hui fournis à titre indicatifs. Ils entreront toutefois dans l’algorithme de Google dès 2021, une bonne raison pour travailler leur optimisation dès à présent !

Travailler l’UX d’avant l’UX

En focalisant ses prochaines mises à jour d’algorithme sur ces quatre indicateurs, et sur quelques autres révolutions comme l’abandon progressif de la technologie AMP (Accelerated Mobile Page), Google met en lumière un espace qui était jusqu’ici le trou noir de l’UX.

Les habitués des méthodes d’amélioration de l’expérience utilisateur ne s’étonneront pas du constat qui suit : aujourd’hui, l’ensemble des pratiques qui visent à travailler cette expérience sur une page Web ou un écran d’app mobile se concentrent avant tout sur des wireframes et sur des maquettes. C’est-à-dire sur des représentations finies de l’environnement dans lequel évoluera l’internaute. On y discute, pour la partie UI, de la taille des boutons ou de l’accessibilité des menus de navigation, et pour la partie UX de la logique de l’organisation de l’information ou de l’évidence des enchaînements d’écran dans des process longs. Et c’est déjà énorme.

Mais ce qui se passe avant l’affichage de la page complète, de la maquette finalisée, est souvent laissé aux bons soins de l’IT. C’est une question de performance technique, de rapidité des serveurs, de temps de chargement. Et si tout le monde se met d’accord pour dire qu’une page au chargement rapide contribue à l’excellence de l’expérience utilisateur, peu nombreux sont ceux qui se demandent déjà ce que ce « rapide » veut réellement dire.

Google a d’ailleurs longtemps réduit le chargement de la page à des questions purement techniques. Les outils d’audit fournis par le moteur de recherche, et notamment le PageSpeed Insight, ont avant tout fourni à la communauté SEO des indicateurs et des recommandations purement techniques : réduire la taille des fichiers images, alléger le Javascript et les CSS, diminuer les appels à des serveurs externes. Il n’était pas question ici de confort, mais de performance.

Les Core Web Vitals exposés fin mai sont un changement de paradigme dans la perception de la performance par le moteur de recherche. Les rapports du PageSpeed Insights changent d’ailleurs de forme pour l’occasion.
S’ils restent des indicateurs chiffrés – on ne change pas une culture d’ingénieur aussi facilement – ils se concentrent non plus sur la performance pure, mais sur le ressenti du chargement de la page, en imaginant des questions d’internautes telles Puis-je enfin cliquer ? ou Tout le contenu est-il affiché ? Des questions qui parlent bien de l’expérience utilisateur.

Ces nouveaux critères vont donc obliger certains spécialistes de l’UX à étoffer leurs analyses, et à se pencher sur l’Expérience Utilisateur d’avant l’Expérience Utilisateur, une sorte de perception globale du Web incluant des éléments qui n’ont plus de rapport direct avec l’ergonomie. Une façon de réintégrer de la technique à l’UX et de faire – enfin – sauter quelques cloisons.

Il reste donc six mois pour envisager les bonnes mesures.

Tom Cruise face à ses écrans dans Minority Report

Réfléchissez bien… Faites le tour des films et séries de science-fiction que vous avez vu au cours des dernières années. N’ont-ils pas un point commun ?

Bien sûr que si : les écrans transparents ! Regardez bien, ils sont partout !

C’est une gigantesque interface transparente que manipule Tom Cruise afin de prévenir les crimes dans Minority Report. C’est une interface tactile invisible qu’utilisent Tony Stark ou Black Widow pour mettre au point les tactiques d’attaque des Avengers. Et ce sont encore des écrans transparents qui permettent d’explorer la planète d’Avatar ou de contrôler les robots-boxeurs de Real Steal.

Aussi certainement que les voitures volantes marquaient la science-fiction des années 1980, l’écran transparent est aujourd’hui la signature du futur dans l’imaginaire collectif.

Mais dans la réalité, où en sommes-nous de ces interfaces transparentes ?

On a beau fouiller salles de bains et bureaux, si la révolution « tactile » a bien eu lieu, les écrans transparents n’ont pas encore envahi notre quotidien.

Ce n’est pourtant pas la technologie qui est en cause. Si l’on en croit les fabricants de tous bords, les interfaces transparentes sont aujourd’hui à portéé de… doigts. Des preuves, les interfaces tête haute ont commencé à équiper les voitures depuis quelques années. Elles permettent notamment de suivre la vitesse de son véhicule sans pour autant quitter la route des yeux, et surtout sans obstruer la vue du conducteur. De nombreuses marques, dont Jaguar ou Range Rover, ont travaillé à des affichages plus évolués, permettant d’afficher différentes informations sur l’environnement (les angles morts notamment) ou de substituer le pare-brise à l’écran du GPS. Mais on ne parle là que d’affichage, pas réellement d’interactivité.

Mais quand il s’agit de « cliquer » ou de manipuler des objets sur une surface transparente, le pare-brise n’est sans doute pas le meilleur lieu d’expérimentation, loin s’en faut. Alors, on imagine des vitres interactives à l’arrière du véhicule, sortent de tablettes transparentes permettant aux enfants de dessiner ou de zoomer sur le paysage lors de longs trajets. Toyota travaille notamment à ce concept depuis 2012 , sans qu’on l’ait vu pour l’instant dans nos campagnes. Même le célèbre MIT s’est penché sur cette révolution .

S’il faut parler d’interfaces « vitrées », la révolution a pour l’instant plutôt lieu dans la salle de bain. Les miroirs connectés ont été l’une des grandes innovations du CES 2019 à Las Vegas. Le principe est simple : à l’instar d’un iPhone, les miroirs sont connectés à des stores d’application qui permettent de vérifier les dernières actualités, la météo ou les notifications des réseaux sociaux tout en se brossant les dents. Cela ne garantit pas forcément une bonne hygiène bucco-dentaire, mais permet sans doute d’éviter que son Samsung Galaxy ne tombe malencontreusement dans le lavabo. Les tutoriels commencent même à fleurir sur YouTube, expliquant comment transformer un ordinateur Raspberry Pi ou une borne Alexa en « miroir intelligent ».

Consulter la météo ? On est quand même loin de Minority Report.

Et c’est peut-être que finalement la transparence n’est pas à chercher du côté des écrans. A bien y réfléchir, la technologie la plus prometteuse en termes de transparence n’est pas le verre… mais les projecteurs et les hologrammes. Et là, certaines expériences sont impressionnantes. On pensera, tout d’abord, aux écrans projetés des montres connectées, comme le Cicret Bracelet développé par une startup française et qui transforme votre avant-bras en un écran de smartphone. On pourrait également penser aux tests effectués par quelques entreprises, comme Thyssenkrupp, pour faciliter les opérations de maintenance de ses équipes. Equipés de casque Hololens de Microsoft, les opérateurs de ce fabricant d’ascenseurs peuvent ainsi voir, en superposition de leur intervention, les instructions de maintenance nécessaires.

Et pour compléter cela, on pensera enfin à Soli, le projet de Google destiné à interpréter nos gestes et à les transformer en commandes pour les smartphones. Après tout, nous utilisons déjà des interfaces gestuelles dans les jeux vidéo. Elles y sont simplement un peu moins sophistiquées. Alliée à des hologrammes ou à un écran projeté, on s’approche doucement de Minority Report.

Concrètement, elle est où la transparence ?

Les technologies de la transparence, plus ou moins avancées, sont donc là. Pourquoi, alors que les prototypes évoqués ici datent pour certains de 2012, ne vit-on pas au quotidien dans un univers digne d’Iron Man ?
En fait, en l’état des usages, il y a aujourd’hui peu de chance que nous voyons débarquer des écrans transparents sur nos smartphones et ordinateurs.

Pensez-donc à la façon dont vous utilisez aujourd’hui ces écrans : Netflix ? Instagram ? Et des emails professionnels ? Comment réagiriez-vous si le clavier sur lequel vous tapez vos SMS laissez voir votre pantalon ou le sol du métro ? Si l’écran de votre TV 4k prenait légèrement la teinte de votre papier-peint plutôt qu’un noir franc pendant les scènes de nuit des meilleures séries d’horreur ? Cela ne semble pas pratique. Car si les technologies existent et font vibrer les salons de l’innovation, nous n’avons aujourd’hui pas l’usage pour les écrans transparents. Nous voulons avant tout de belles images, et cette course à la qualité n’est compatible qu’avec un environnement visuel totalement maîtrisé : un fond noir ou un fond blanc. Ici la transparence n’est pas de mise.

Reste que les expériences de Jaguar, Toyota ou Tyssenkrupp ouvrent la voie à des usages précis : l’information ou la formation professionnelle dans un cadre maîtrisé, l’assistance à la conduite ou à la manipulation… En fait, des usages cadrés et souvent professionnels où les écrans ne doivent pas « distraire » une opération délicate.

Dans ces usages, la transparence fonctionne en fait déjà. La science-fiction s’est finalement moins trompée sur ça que sur les voitures volantes.

La crise du Covid-19 va changer bien des choses dans nos quotidiens. Et au-delà du déconfinement à venir, et de ses aspects pratiques, notre vie dans les prochains mois, va surtout être marqué par une relation particulière à la distance.
Travailler à distance, éviter la promiscuité, maintenir une distance sanitaire dans les espaces publics… ces comportements émergeant constituent un nouveau terrain d’expérimentation pour les outils numériques.

Travailler à distance, c’est possible !

Pour beaucoup d’entre-nous, qui travaillons dans les secteurs de la communication, du marketing et du numérique, le quotidien a déjà changé.

Depuis la mise en place du confinement au milieu du mois de mars, de nombreuses entreprises se sont vues contraintes de mettre en place une politique de télétravail. Et si certaines étaient préparées depuis longtemps à ces méthodes de collaboration à distance, pour d’autres le déploiement d’outils dédiés et l’empiétement de la sphère professionnelle au sein du domicile ont été une épreuve. Trouver les espaces, sanctuariser les temps – surtout quand l’école impose elle aussi les télé-devoirs – sont des casse-têtes pour bien des collaborateurs et un défi pour les organisations.

Zoom, l’illustration parfaite de nos changements d’habitude au travail

Mais les témoignages sont là, portés et diffusés sur LinkedIn comme autant de preuves de la vaillance et de la résilience de l’industrie de la communication : ça marche. On ne compte plus les écrans MS Teams ou Zoom montrant les collaborateurs rassemblés autour de la même table de réunion virtuelle, les apéros à distance entre salariés pour garder le contact, ou les routines partagées pour conserver le moral et la santé.

Certains d’entre nous ont vite pris des habitudes. Et dans le monde d’après, ce sera sans doute au tour des entreprises de s’adapter à celles-ci. Aura-t-on toujours besoin de ces grands open-spaces qui rassemblent régies ou agences ? Les grandes réunions auxquelles nous assistions régulièrement seront-elles encore indispensables ? Ne gagnerait-on pas un temps précieux à ne pas se déplacer chaque jour jusqu’aux bureaux ? Ces questions seront soulevées, dès l’été, par nombre de collaborateurs. Et elles vont nous obliger à penser de nouvelles façons de travailler dans lesquelles le numériques prendra, chez tous, la part qui lui est promis depuis tant d’années.

Quelle expérience de la distance en boutique ?

Mais cette nouvelle relation à la distance ne va pas concerner que les collaborateurs des entreprises. Demain, les clients eux-aussi feront part de nouvelles attentes et auront besoin de nouveaux repères.

Amazon Go, le magasin sans caisse ni file d’attente, va faire des émules post-confinement

Premier impacté, l’accueil en magasin va changer. Pour nombre d’entre-nous, la promiscuité des rayons, les files d’attente en caisse, les cabines d’essayage, ne vont être qu’un souvenir. Et le passage à un shopping où chaque acte se mesure en mètre va demander de l’organisation et des outils : les techniques héritées de la livraison ou du drive font aujourd’hui des émules dans le secteur du livre ou de la cosmétique. Demain, les applications de prise de rendez-vous, et en conséquence le commerce personnalisé, deviendront légions.

Les soldes ou le Black Friday – ces grands messes consuméristes – vont devoir être drastiquement repensées. Il semble hautement improbable que demain, les consommateurs se tassent dans des magasins en recherche de quelques habits en soldes, se frôlent et plongent leurs mains en même temps dans des bacs d’objets divers. Sans verser dans l’utopie hygiéniste, ces scènes de consommation à outrance, ou en tout cas leur aspect visible, seront sans doute bannies de notre quotidien.

Affluence, l’une des applications qui permet aujourd’hui
de connaître l’occupation et le temps d’attente de différents lieux publics.

Pour orchestrer en boutique la distanciation que l’on nous recommande dans les contacts quotidiens, le numérique semble aujourd’hui une des pistes. Le déploiement d’applications de shopping à distance, de prise de rendez-vous, mais également de gestion des flux en magasin sont autant de pistes que devront être explorées dans les semaines à venir.

Délocaliser l’information

La relation au consommateur n’est pas tout. Les relations entre entreprises, et notamment les métiers plus spécialisés dans le B2B, vont eux également subir une petite révolution.

Les freins que nous avons aujourd’hui vis-à-vis du contact et de la proximité ne cesseront pas dans la sphère professionnelle. Rendez-vous commerciaux, séminaires, grands événements ou encore visites d’entreprises vont devoir se réinventer. Et si pour certaines tâches, les alternatives sont simples à trouver – nous avons tous fait au cours des dernières semaines des rendez-vous client sur Skype ou des ateliers de réflexion dans Zoom – pour d’autres moments de la vie d’entreprise, la tâche s’avère plus ardue.

Travis Scott en live sur Fortnite, une idée des évènements de demain ?

La virtualisation – même si elle amène parfois une déshumanisation – semble être pour un temps la solution. Dès le début du confinement, des plateformes comme Second Life ont suscité un regain d’intérêt. Le secteur de l’événementiel a notamment multiplié les expérimentations. Parmi celles-ci, on retiendra les concerts virtuels de Lady Gaga ou des Rolling Stones organisés sur YouTube, celui de Travis Scott donné sur Fortnite, ou encore le salon Laval Virtual dédié à la réalité virtuelle organisé à distance dans un Laval Virtual World. Ces solutions, purement exploratoires, dessinent une partie de l’événementiel du futur.

La visite virtuelle d’usine, comme celle lancée par Janssen en 2019,
est-elle une solution à la crise de distance à venir ?

La réalité virtuelle, et surtout les casques Oculus en consort auront sans doute leur rôle à jouer dans cette relation business à distance. Sans doute pas dans les relations personnelles – même si on peut imaginer des conf-calls immersives, elles semblent terriblement contraignantes face à nos quotidiens actuels – mais dans la dématérialisation et la virtualisation des lieux. Comme les laboratoires Janssen l’ont fait en 2019, et comme le secteur immobilier l’expérimente depuis des années, il est facile aujourd’hui d’imaginer des visites virtuelles d’usines, d’expliquer des processus à distance et de former les gens, même de loin.

L’usine virtuelle de Safran, modèle du futur ?

La réalité virtuelle s’imbrique aujourd’hui dans le réel, à tel point que chez Safran, il n’est plus besoin de construire un prototype d’usine pour le tester, ni d’envoyer dans un quelconque local pour apprendre de nouvelles méthodes de travail. On virtualise tout. On travaille, échange et conçoit à distance.

Bannir le contact

Il est des gestes du quotidien pour lesquels nous devrons toujours nous déplacer. Et il est des gestes qui nécessiteront toujours une grande proximité. Ainsi, quand nous irons de nouveaux acheter des livres ou des produits de beauté, comment se passera le contact nécessaire à la transaction ?

La crise sanitaire actuelle réveille les fantasmes d’une société sans argent, ou toute transaction financière est dématérialisée. Mais même si certains pays semblent tendre vers cette utopie – les transactions physiques ne représentent plus que 2% des échanges en valeurs en Suède par exemple – le monde financier virtuel n’est peut-être pas pour demain. Ne serait-ce que parce que l’équipement ne peut pas toujours suivre : en 2019, 13% des Français ne possédaient pas de carte de paiement, 23% ne possédaient pas de smartphone.

La paiement sans-contact, la norme d’un monde Post-Covid ? Comme ici dans les transports en commun de Dijon, via la plateforme d’Open Payment de Keolis.

Pour autant, il faudra réfléchir demain à cette explosion du paiement sans contact, comme il est actuellement possible dans les petits commerces – sur un plafond d’ailleurs relevé à 50€ en ce début d’année – ou dans les transports en communs de quelques villes. Gageons également que la fin du contact voulu mènera à son lot d’expérimentations autour des magasins sans caisses et sans caissiers. On pense bien entendu à Amazon, même si le modèle est décrié, mais aussi – la boucle est bouclée – aux logiques d’abonnement mises en place par certaines librairies et aux drives des grandes surfaces. Des solutions qui encore une fois répondent à notre besoin de distance.

La technologie bien sûr… mais au service de l’humain

Les mois qui arrivent vont apporter de grands changements dans le comportement des utilisateurs. Ces mutations ont d’ailleurs déjà commencé, et se concrétisent dans notre quotidien. Marques, entreprises, agences… vont devoir être, plus que jamais, à l’écoute des attentes des utilisateurs en matière de sécurité, de services, mais également de transparence dans la communication.

Dans le monde d’après, la technologie ne sera pas une réponse simple aux nouvelles préoccupations. Elle ne sera qu’un élément d’un cocktail composé d’écoute de l’utilisateur, de respect de ses attentes – notamment en matière de vie privée, et le débat sur l’application StopCOVID montre combien ce sujet est sensible – et de souci environnemental toujours fort. Mais la technologie sera un élément indispensable de ce cocktail.

A nous de faire en sorte qu’il ne le rende pas amer.

Le Net a envahi notre quotidien, mais il doit encore évoluer pour devenir plus utile, mais aussi plus responsable.

De terrain de jeu pour geeks, Internet est devenu incontournable dans nos vies. Mais, alors qu’il y a 20 ans on se félicitait de l’ère d’ouverture culturelle et de partage qu’il allait provoquer, on l’accuse aujourd’hui de nous surveiller, travestir la vérité et de manipuler l’opinion.

Les technologies ont évolué à grande vitesse mais le Net pourtant n’a pas changé. Si on est passé du mail au snap, de la page Web à la story… les possibilités de rencontre, de partage, de découverte restent là, portées par des internautes friands de contacts et d’interactions.

Aujourd’hui comme hier, les outils digitaux rapprochent les utilisateurs, facilitent l’accès à la connaissance, améliorent l’expérience – et parfois la vie – des humains. Le monde connecté n’est peut-être pas féerique, mais il est loin d’être l’obscure dystopie qu’on dépeint souvent.

En 2020, les agences digitales doivent, plus que jamais, remettre à l’honneur un Digital utile et responsable, tout en gardant à l’esprit son impact sur les utilisateurs et sur la planète.

Avec leurs clients, elles peuvent développer des services réellement utiles aux internautes, citoyens, consommateurs ou collaborateurs. Elles doivent accompagner ces mêmes clients dans la maîtrise des enjeux du monde digital, l’appréhension de ses dimensions environnementale et sociétale, et l’identification de ses dérives possibles.

Être agence digitale en 2020, ce n’est plus seulement faire, c’est surtout faire grandir.

Aujourd’hui une agence digitale doit accompagner les marques pour une réelle démarche RSE intégrée : dématérialiser, mais aussi penser à la fin de vie des outils et des campagnes, aux données stockées sans raison ou aux sites qui ne sont plus visités. Se poser la question des bénéfices à long terme du remplacement de catalogues par des sites qui fonctionnent H24, pour des exploitations souvent ponctuelles. S’interroger sur les impacts et bilans carbone de ces outils, que peu considèrent aujourd’hui.

Une agence digitale, plus qu’aucune autre, doit questionner l’expérience client globale et créer des connexions utiles, fluidifier les démarches. Où est la priorité aujourd’hui : déposer 40 cookies sur son site marchand ou gérer au mieux les files d’attente ?

Une agence digitale doit accompagner la mise en oeuvre, mais surtout conseiller la stratégie de moyens. Plutôt qu’une nouvelle expérience de réalité virtuelle, n’est-il pas plus responsable d’investir dans une application de formation à la sécurité ? Et mieux servir l’engagement responsable de la marque et au final son image et ses ventes ?

Au-delà de leur expertise technique, les agences digitales doivent être des partenaires humains et responsables, et être aux premiers rangs pour construire un digital bénéfique pour tous.

David mit son casque. Après quelques secondes, le temps que l’appareil démarre, il se sentit comme transporté. Cette journée qui s’annonçait pénible au bureau ne démarrait finalement pas si mal que ça. En tournant la tête, il remarqua que le soleil faisait ce matin de très jolis reflets sur les façades vitrées des immeubles. Sur les quelques centaines de mètres qui séparaient l’arrêt de bus du siège de l’entreprise, il se surpris même à faire quelques pas chassés. Il était décidément de bonne humeur… Cet appareil avait des vertus insoupçonnées et permettaient de changer l’humeur et la perception de la journée. Une sorte de réalité… altérée. En entrant dans l’immeuble, David fit un grand sourire à la fille de l’accueil.

Cela ressemble au début d’une expérience de réalité virtuelle, telle qu’une start-up des années 2010 pourrait la présenter auprès de ses futurs clients. Sauf que cette histoire pourrait tout aussi bien avoir…40 ans ! Car, si on excepte quelques expériences psychédéliques comme le fameux Bicycle Day d’Albert Hofmann, découvreur du LSD, l’invention de la Réalité Virtuelle, ou Augmentée, technologique date de 1979. Et plus précisément de là :

https://youtu.be/xOTfzZCyCmo

L’invention du Walkman par Sony en 1979, et surtout le succès de sa commercialisation grâce à des supports audio – les fameuses cassettes inventées par Philips [1] – pratiques, fiables et surtout enregistrables, a fait énormément pour la propagation de la culture digitale et le changement de la perception des médias [2].

Pour faire court, le Walkman a permis deux choses : la création de la première bulle de média personnalisée et l’apparition d’une réalité augmentée purement technologique.

L’apparition du média personnalisé

Avant l’arrivée du Walkman, comment écoute-t-on de la musique ? A vrai dire, on l’écoute surtout chez soi. La culture populaire a retenu l’image des familles rassemblées devant la radio ou celle de la platine vinyle située près du bar et du disque qu’on écoute un verre de whisky à la main après une journée de travail stressante.

La musique n’est finalement devenue nomade qu’assez tard : le poste à transistor dans les années cinquante [3] fait sortir la radio hors-les-murs, et quelques platines 45 tours ans les années soixante permettent d’emmener ses disques favoris dans le parc, le temps d’un pique-nique avec les copains [4]. Mais si la musique se nomadise, l’écoute reste collective. La radio s’écoute entre collègue, en famille… et si on peut choisir la galette de l’après-midi, c’est toute la bande qui profite du dernier Richard Anthony.

Avec le Walkman, ce qui change c’est l’individualisation de l’écoute. Ce casque aux mousses orange permet à deux personnes proches physiquement d’écouter deux musiques totalement différentes : chaque expérience musicale devient unique puisque vécue par un individu seul, et surtout isolé.

Le Walkman ne permet plus le partage de la musique et de l’expérience sonore et coupe, également, les échanges sociaux.

Est-ce que cela ne vous rappelle rien ? Les habitudes prises avec le Walkman sont extrêmement proches de celles vécues aujourd’hui avec les smartphones. Ajoutez simplement un écran et vous verrez que chacun possède désormais sa bulle d’information en plus de sa bulle musicale et que cette bulle coupe de fait les échanges entre personne en instaurant des filtres sur les contenus. Si l’on ne lit pas la même chose, ou qu’on ne voit pas le même film, difficile d’en parler ensemble.

Résultat de recherche d'images pour "walkman guardians of the galaxy"

Sans aucun jugement, le Walkman est bien le première acte d’une personnalisation des médias, un premier clou dans le « cercueil » des médias de masse et de la consommation de groupe des contenus. Ne serait-ce que pour cela, le monde digital d’aujourd’hui lui doit beaucoup.

La première des réalités augmentées

Mais creusons plus loin. Si le Walkman est précurseur du Smartphone, il est également précurseur de l’ensemble des expériences de réalité augmentée que nous mettons en place aujourd’hui.

Vous vous souvenez de l’histoire de David ? Si sa journée a tant changé entre son réveil et son arrivée au bureau, c’est peut-être que dans ses oreilles passait Walking on Sunshine de Katrina & the Waves (oui, le morceau date de 1983, pas de 1979).

La perception que David avait de son environnement a changé par le simple ajout d’une musique…

D’ailleurs, faites l’expérience par vous-même : dans le métro, passez successivement d’un morceau triste à un morceau joyeux, par exemple d’un trio (l’opus 100) de Schubert au Love Shack des B-52’s. Continuez à observer les gens autour de vous : la perception que vous aurez de leurs actions, de l’histoire qu’ils vous évoquent, ne sera pas la même. La musique influe sur notre perception, tout cinéaste l’a compris. Elle est surtout la première des réalités augmentées.

Dans les années qui séparent l’invention du Walkman de celle de l’Oculus Go, on s’est peu penché sur le pouvoir de transformation du son. La seule mise en place concrète d’une « augmentation d’expérience » grâce au son est sans doute la création des audioguides dans les musées [5]. En fournissant une couche d’explication sonore, ceux-ci transforment une simple contemplation en une expérience éducative. Encore une fois, une réalité augmentée.
Quelques initiatives existent aujourd’hui, permettant soit d’atténuer le son extérieur [6], soit de commenter notre environnement [7]. Mais depuis le début des années 2010, les expérimentations en la matière ne semblent concerner que l’image. Facebook, Google, Apple ou encore Microsoft… tous se concentrent avant tout sur des lunettes permettant de nous emmener dans un univers parallèle ou de déformer notre quotidien. Peu se penchent encore sur le son.

Reconstruire un monde sonore

Pourtant, le son n’a jamais été autant à la mode qu’aujourd’hui : les Podcasts battent des records d’audience [8] et nos habitudes de mobilité (voiture, vélo, marche) ou nos activités physiques laissent nos oreilles libres si elles occupent nos mains. Et nos smartphones, que nous dégainons plus de 150 fois par jour, ne sont-ils pas conçus pour véhiculer avant tout de la voix et du son ?

Musique, textes, Histoire et histoires, il y a beaucoup à imaginer autour de la réalité augmentée sonore. Et si le sujet n’intéresse pas spécialement les GAFA, de nombreux projets pourraient demain changer votre quotidien avec quelques mots ou quelques notes de musique. Il n’y a finalement qu’à imaginer les dispositifs… et profiter de l’héritage fabuleux que nous a laissé le Walkman.

Demain, tous masqués ?

Le New York Time annonçait il y a quelques semaines qu’il permettait désormais aux annonceurs de diffuser de la publicité sur son site en ciblant les émotions de ses lecteurs [1]. Sans être totalement inédite, la démarche est pour le moins originale… et nous permet surtout de reposer la question du traitement des émotions sur le Net. Alors, autant en profiter !

La publicité qui répond à ce que je ressens

Oui, la démarche du New-York Times est aujourd’hui unique dans le secteur de la pub digitale.

Historiquement, les grandes régies, issues des médias ou des pure-players, jouent plutôt sur les affinités pour cibler leurs publicités. On sait par exemple qu’un lecteur du Figaro va plutôt rechercher des contenus culturels ou des services haut-de-gamme. Les annonceurs de ces secteurs auront donc une plus grande performance publicitaire en annonçant dans ce journal. C’est historiquement ce degré d’affinité entre une audience et un support qui fait tourner le business de la publicité en ligne, quasiment depuis sa création.

La démarche du New York Times ne remplace bien entendu pas ce système, mais le complète avantageusement. Une marque de sport pourra ainsi apparaître sur des articles jugés « dynamiques » par les lecteurs, ou une librairie pourra annoncer sur des contenus qui « font réfléchir ». Le New York Times a retenu au final 18 critères, 18 émotions pour qualifier ses contenus et assurer un bon ciblage publicitaire. Autant de choix possibles pour les annonceurs qui voudraient insister sur les qualités intrinsèques de leurs marques.

Le Net, territoire d’émotions

Mais traquer les émotions sur le Net, ce n’est pas réellement nouveau. Internet, puisqu’il permet depuis longtemps à tous de s’exprimer, est un territoire d’émotions. En 2005, Lycos Europe lançait Jubiiblog [2], une plateforme de blog sur laquelle chacun pouvait contribuer et surtout tagguer son état d’esprit au moment de la publication de ses billets. Une plateforme qui ne résistera malheureusement pas à la fin du portail en 2008.

En fait, depuis l’ouverture du Net aux contributions individuelles – des pages persos aux blogs ou des vidéos [3] aux tweets, chaque contenu véhicule et suscite une émotion : positive ou négative, timide ou franche, partagée ou non… Le vrai défi émotionnel du Net n’a jamais été de susciter des émotions, mais plutôt de comprendre celles-ci et de savoir comment les exploiter. D’où une pléthore d’outils sémantiques apparus au cours de ces dix dernières années, et aujourd’hui boostés par l’intelligence artificielle, voulant analyser chaque message envoyé [4] aux marques pour savoir si les foules de consommateurs sont satisfaites du service rendu ou non.

En 2016, Facebook déployait une palette de réactions possibles [5] allant de l’éclat de rire à la colère, en complément de son bouton Like historique. LinkedIn a fait de même en 2019 [6] avec des boutons de réaction allant eux de l’applaudissement au questionnement. Un autre moyen de traquer l’engagement, et surtout la réaction suscitée par les contenus, sur les réseaux sociaux.

On se souviendra également, pour l’anecdote, que le changement du bouton Favori de Twitter en un bouton Like en forme de coeur avait suscité de nombreuses réactions [7]. Passer d’un marquage purement factuel à l’expression d’une émotion n’est pas « neutre », loin de là, pour l’internaute.

Emotions, manipulation

Mais que deviennent nos émotions, une fois digérées par les réseaux sociaux ? A l’instar de nos achats sur Amazon, toutes les actions sur les espaces digitaux servent aujourd’hui à alimenter des algorithmes optimisant notre consommation. Mais si sur Amazon, elles servent uniquement à pousser des recommandations de produits [8], sur Facebook, ils servent à diffuser du contenu ciblé et personnalisé.

Les « émotions », telles que les entend Facebook, ne sont bien entendu qu’une partie des données analysées par le réseau. S’y ajoutent le temps passé sur les contenus, le temps passé sur les vidéos, les commentaires que nous laissons et les profils des personnes et des marques nous ayant fait découvrir ces contenus. Cet algorithme complexe, mais légitime dans le modèle économique du réseau, dépend avant tout de notre temps passé en ligne.

De fait, l’exploitation de nos émotions sert à nous hameçonner, à nous faire passer plus de temps sur les réseaux sociaux, et par effet de bord à nous faire interagir et consommer plus de publicité. L’analyse des émotions est aujourd’hui une composante essentielle de ce qu’on appelle les Dark Patterns [9] : l’ensemble des pratiques UX qui nous poussent à consommer d’avantages.

C’est également un carburant indispensable aux stratégies publicitaires. Facebook promet aux marques de toucher les internautes qui « aiment » – comprendre par là, qui interagissent et qui consomment – certains types de contenu. C’est souvent inoffensif quand cela vous pousse simplement à regarder une nouvelle vidéo de jardinage ou de bricolage. Cela pose plus de questions quand les contenus ainsi poussés touchent à la sphères politiques et permettent d’influer sur le résultat d’élections [10].

Sur ton visage

Mais jusqu’à présent, n’étaient exploitables que les émotions que l’on voulait bien montrer. Le modèle économique de Facebook, ou le moteur de recommandation de Netflix, sont basés sur nos réactions volontaires : Like, Follow, temps passé… Libre à nous d’envisager une « grève du Like » si l’on veut que les réseaux sociaux cessent d’exploiter nos goûts.

Mais demain ? Les avancées technologiques promettent un avenir un peu plus inquiétant, notamment du fait du déploiement massif de la 5G en Chine et dans les pays occidentaux, et de sa combinaison possible avec les algorithmes de reconnaissance faciale [11]. Car si on évoque parfois l’identification des individus dangereux par le biais de caméras [12], on oublie souvent la capacité des algorithmes à aller plus loin que la reconnaissance d’un visage.

De nombreux tests ont déjà été effectués par le passé, visant à reconnaître les émotions sur un visage : joie, tristesse, angoisse [13]… On se souviendra tout particulièrement de cette analyse en direct des réactions de Mark Zuckerberg [14] lors de son audition par le sénat américain dans le cadre de l’affaire Cambridge Analytica – justement. Quid d’une reconnaissance faciale qui deviendrait, ne serait-ce qu’un temps, un détecteur de mensonge [15] et permettrait d’incriminer, ou de plaider à charge, devant les tribunaux ?

On nage en pleine science-fiction ? Peut-être… pour l’instant. Ce type d’exploitation de la reconnaissance des émotions dépendra quoi qu’il arrive de l’utilisation qui sera faite de la reconnaissance faciale dans l’espace public. Et là, deux écoles s’affrontent : San Francisco qui a décidé de bannir les algorithmes de reconnaissance de son espace public [16], et le Royaume-Uni qui lors des tests opérés par la police verbalise les passants ne souhaitant pas montrer leurs visages [17].

Emotions cachées

Reste une dernière option : prendre – enfin – conscience que les émotions telles qu’elles existent dans les espaces numériques, sont un biais. Ou en tout cas une matière bien trop complexe à gérer. La question se pose du côté d’Instagram cette fois.

Conscient des travers de son modèle d’influence, notamment sur les secteurs de la mode et des cosmétiques, Instagram ne peut décemment plus proposer à ses annonceurs un monde où la qualité des contenus se mesure au taux d’interaction. Simplement parce qu’il est trop facile de truquer ces interactions [18]… Le réseau envisage donc de ne plus faire apparaître les Likes sur ses contenus [19], histoire de ne plus tromper personne et de ne pas transformer son usage en une espèce de course à l’échalote. Ce qu’il est déjà, ne nous leurrons pas.

Et si les réseaux eux-mêmes ne peuvent se réguler, peut-être devrons-nous apprendre à masquer nous-mêmes nos émotions, soit en utilisant des lunettes empêchant toute reconnaissance faciale [20], soit en sortant masqués pour éviter caméras et algorithmes. Et ça, la science-fiction l’a déjà envisagé [21].

Chacun est libre de créer

Il y a 25 ans, quand Internet est doucement devenu populaire, une large majorité de ses enthousiastes y voyait le plus grand terrain de jeu de la planète. On l’imaginait comme une espèce de gigantesque bac à sable dans lequel chacun pourrait s’essayer à partager, construire et se créer un petit univers, à son image.

On apprenait alors le HTML [1], on piratait – chuuut ! – Photoshop [2] pour retoucher nos photos ou créer rapidement des effets de halos. On cherchait un hébergement – gratuit si possible [3] – pour ces quelques pages, et partageait ainsi notre passion pour les santons de Provence ou les R5 tunés.

Webmonkey, la plateforme qui a permis à de nombreux internautes de découvrir et comprendre le HTML

Back in 1998 : Webmonkey, la plateforme qui a permis à de nombreux internautes de découvrir et comprendre le HTML

Les 30 ans du Web au début du mois de mars a été l’occasion pour les plus anciens des geeks de se remémorer leurs premières créations digitales [4]. Si celles-ci n’ont laissé aucune trace dans l’histoire de l’esthétique, elles ont tout de même forgé l’imaginaire d’un internet terreau de la liberté d’expression.

Lost in Creativity

Aujourd’hui, si l’esprit de liberté n’a pas réellement disparu, celui de la créativité a peut-être changé de trottoir. C’est que beaucoup de révolutions sont passées par là. Du HTML, on est passé aux blogs, plus faciles à maîtriser et nombres d’internautes ont découvert la liberté de parole via les Skyblogs [5] et autres Tumblr. Puis sont venus les réseaux sociaux, Facebook et Instagram en tête, qui ont définitivement permis à tout le monde de profiter des 15 minutes de célébrité promises par Andy Warhol [6] … mais de façon fractionnée, par tranche de 3 secondes.

Si les réseaux sociaux ont eu le mérite de démocratiser l’expression de chacun – on fermera les yeux le temps d’un article sur les travers de cette démocratisation – ils ont malheureusement appauvri le terrain de jeu des origines. Rien de moins créatif qu’un Facebook : on y poste simplement la photo ou la vidéo qu’on vient de prendre sur son smartphone. On y rediffuse les mêmes GIFs et les mêmes « bonnes idées » qu’on a déjà vu des dizaines de fois.

Trolltunga, en Norvège, symbole de l’uniformisation du voyage que provoque Instagram

Rien de moins créatif qu’un Instagram. On y suit les mêmes palettes de couleurs et les mêmes compositions à longueur de repas et de voyage [7]. Et s’il reste enthousiasmant de suivre quelques artistes ou quelques comptes particulièrement bien inspirés, il faut bien admettre qu’aujourd’hui le contenu partagé sur les réseaux sociaux crée plus d’ennui qu’autre chose. Oui, on a de plus en plus souvent l’impression d’avoir fait le tour du Web [8].

La faute à quoi, la faute à qui ? Au manque d’idées global de l’humanité ? Un peu trop facile… la créativité se nourrit aussi des outils disponibles et pour la majorité des contributeurs digitaux, ces outils se résument au smartphone qu’ils dégainent de leur poche 150 par jour [9]. Quand le seul outil que l’on possède est un copier/coller, toute création est un copier/coller.

Digital is the New Normal

C’est que l’univers digital est aujourd’hui devenu banal. Plus de la moitié de l’humanité a accès à Internet, les principaux réseaux sociaux comptent plus d’un milliard d’utilisateur chacun [10]. En janvier 2018, les Français passaient en moyenne 1h22 sur les réseaux sociaux [11]… Quand un outil est à ce point entré dans le quotidien des gens, il cesse d’être un terreau créatif pour devenir une commodité.

 

Encore sur votre smartphone ?

On se sert du Net pour faire ses courses, rencontrer l’âme sœur, commenter les émissions de télévision, payer ses impôts ou écouter le dernier album d’Andrew Bird [12] en écrivant un article qui parle de créativité et d’Internet [13]. Bref, on s’en sert au quotidien soit pour travailler, soit pour ses loisirs, soit pour se rendre la vie un peu plus facile… mais plus rarement pour créer.

Et pourtant, l’espace digital est aujourd’hui encore l’un des plus beaux terrains d’expérimentation que l’on puisse imaginer. Mais Il n’est plus seulement question de créer des sites internet…

L’ère des nouveaux bricoleurs

En 2019, et depuis quelques temps, c’est avant tout l’imbrication croissante du « virtuel » et du « concret » qui est intéressante. L’émergence des technologies telles que réalité virtuelle, commandes vocales, Internet des Objets… et plus loin Intelligence Artificielle, ouvre finalement plus de portes que le Web initial n’en laissait entrevoir.

Roy Allela, inventeur kenyan, a mis au point un gant capable de traduire le langage des signes en "paroles" pour aider à la communication des personnes malentendantes.

Roy Allela, inventeur kenyan, a mis au point un gant capable de traduire le langage des signes en « paroles » pour aider à la communication des personnes malentendantes.

La fin des interfaces informatiques permet l’émergence de nouveaux bricoleurs, moins préoccupés par la propagation du savoir que par l’interaction des outils avec les humains. L’homo-numéricus est passé en une décennie du rêve de savoir universel à l’imaginaire d’un Digital for Good où chacun peut devenir un artisan du numérique. En résultent des expérimentations aussi variées que des prothèses connectées [14], des traducteurs de langage des signes [15], ou plus modestement de petites boîtes à musique [16].

Bien entendu, l’envie de créer, de propager et d’expérimenter n’a pas disparue : nombre de bricoleurs travaillent déjà quotidiennement à créer des objets et des utilités numériques… mais à l’heure où la politique et la société se concentrent avant tout sur les start-ups et le business, ne serait-il pas bon de retrouver les idéaux des débuts, de rééquilibrer les discours et de faire de cette énième révolution numérique un grand terrain de jeu plutôt qu’une place de marché ?

C’est d’autant plus facile que les savoirs numériques, accessibles à tous, sont légions et que depuis deux siècles il a rarement été possible d’avoir autant de matériel d’expérimentation à disposition. Ordinateurs à bas-prix, technologies open-sources, impression 3D… les techniques sont là pour permettre une prise en main rapide, par tous, des possibilités « digitales ».

Une sorte de Révolution artisanale.

Alors créons, expérimentons, prototypons !

Aujourd’hui le numérique doit être partout, au cœur de l’entreprise. Mais il ne doit pas devenir une obsession dans la tête de son dirigeant. Plan.Net lance HEAR : une série de packages qui permettent aux entreprises de s’assurer de leur performance digitale.

Le digital, de plus en plus accessible…

En 2019, les outils digitaux ne sont plus aussi complexes qu’il y paraît. En intégrant notre smartphone, bon nombre de services sont devenus facilement accessibles aux consommateurs, et il est aujourd’hui aussi facile de réserver un billet de train, ou de commander un meuble, qu’il était simple il y a 20 ans de consulter un article dans le journal. La véritable victoire de la révolution numérique, c’est d’avoir rendu accessibles à tous une infinité de produits et de services.

Mais en ouvrant les services au plus grand nombre, le digital a aussi mis une gigantesque pression sur les entreprises. Aujourd’hui, pour être performante, une entreprise doit être à jour dans ses usages digitaux. Elle se doit de proposer ses services en ligne, de manière fiable et accessible, avec un maximum d’information et de contexte. Le numérique qui facilite la vie des consommateurs est souvent devenu une charge pour les entrepreneurs.

…Sauf peut-être pour les entreprises.

Car, on ne va se mentir : on ne développe pas une entreprise pour l’excellence numérique qu’elle impose. On le fait par passion, par envie, pour proposer un produit ou un service auquel on croit, une façon de travailler innovante, ou une qualité qui répond pleinement aux envies des clients. On ne pilote pas une entreprise pour le plaisir de créer un site internet. On est, parfois, malheureusement obligé de le faire.

Alors on teste, maladroitement parce que ce n’est pas notre compétence première. Ou on confie la gestion des espaces digitaux à ce cousin ou ce neveu doué en « informatique » – quoi que regroupe ce mot… On délègue sans forcément savoir, et maîtriser, ce qui sera fait. Dans tous les cas, on garde dans un coin de la tête ce besoin d’exister dans l’espace digital.

Mais aujourd’hui, si le numérique doit être partout au sein de l’entreprise, il doit surtout cesser d’être un fardeau dans la tête de son dirigeant. Car celui-ci a mieux à penser.

Le guichet unique du numérique

HEAR by Plan.Net France

La solution existe pourtant : c’est la même que celle qui existe depuis longtemps dans le secteur automobile : un guichet unique. La voiture a cessé d’être une préoccupation quand les entreprises ont eu ce réflexe d’avoir un garagiste, ou un loueur, comme interlocuteur unique. De la même façon, le numérique cessera d’être une question à partir du moment où le réflexe d’un guichet unique s’installera :

  • un guichet unique qui permet de s’assurer de la qualité technique de son écosystème digital (son accessibilité, sa vitesse de chargement, sa sécurité – pour répondre au plus vite aux requêtes des internautes.
  • un guichet qui permet également de s’assurer de sa performance et de son adéquation avec le comportement des clients : être trouvable sur les moteurs de recherche, proposer des parcours optimisés.
  • un guichet qui permet enfin de garantir une information et une animation de qualité auprès de la clientèle, car la performance digitale passe aujourd’hui par le contenu, par sa régularité et sa pertinence face aux interrogations des internautes.

C’est dans cet esprit que Plan.Net a créé HEAR : mettre en place ce guichet unique qui simplifie la vie de l’entreprise et lui garantit une présence digitale performante, sûre et dynamique. Pour que ce qui est devenu facile pour le consommateur, au quotidien, le devienne également pour les entreprises.

Découvrez HEAR sur notre site dédié.