Digital Sunrise, 2021, l'année du numérique positif

Traditionnellement, le mois de janvier est à la fois celui des bilans et des résolutions. Le bilan des mois écoulés et de ce qu’ils ont apporté comme tendances et comme espoirs ; les résolutions pour l’année à venir et la liste des actions à mener pour bâtir – on le souhaite – un avenir meilleur.

2020, année hystérique

Du côté des bilans, on ne va pas revenir sur l’année de la Covid-19. L’épidémie qui a touché le monde a changé les habitudes, imbriqué plus que jamais la sphère privée et l’environnement professionnel, poussé à outrance la digitalisation des entreprises, fait de nous des adeptes du click & collect et des apéro-zoom. Contexte oblige, 2020 a été l’année de l’hystérie numérique. Nous n’avons jamais passé autant de temps sur Netflix, envoyé autant de messages, partagé autant notre image, diffusé autant de données. Nos sociétés occidentales n’ont jamais été aussi connectées, dépendantes des smartphones, des écrans et des Data. Et les images qui nous viennent des expérimentations chinoise annoncent clairement que la route de la numérisation n’a pas fini d’être tracée.

Il y a du bon et du moins bon dans cette digitalisation galopante. Les outils numériques ont permis de garder le contact pendant les périodes d’isolement, en famille ou entre collègues. Ils ont permis d’assurer une activité, et donc des revenus, à certaines catégories professionnelles. Ils ont également montré leur importance croissante dans la dénonciation des injustices et la mobilisation des espoirs. On n’oubliera pas qu’après les #MeToo de 2019, l’année 2020 a été l’année de #BlackLivesMatter, un mouvement dont l’ampleur et la mobilisation n’auraient pas été possible sans les outils numériques, les caméras, les réseaux sociaux et leur capacité d’amplification [1]. Mais un mouvement dont il reste encore à trouver un aboutissement concret.

Parce que 2020 aura également été une année sombre pour les outils digitaux. L’emprise des réseaux sociaux – Facebook en tête – augmente, et les tentatives de régulation de ce Léviathan du contenu et de la publicité n’aboutissent toujours pas, laissant la voie libre aux extrémismes et à la manipulation. L’instantanéité de ces mêmes réseaux a continué à modeler notre paysage médiatique, laissant parfois de côté la raison et la prise de recul nécessaires à la vie dans une société harmonieuse. Les discours emprunts de solutionnisme technologique restent d’actualité – y compris dans la sphère politique [2] – malgré les échecs des modèles de Smartcity à Toronto ou à Songdo. Et enfin, l’empreinte écologique des outils numériques est en 2020 plus importante que jamais, alors que l’urgence climatique se fait de plus en plus pressante.

Comme toutes les années d’hystérie, 2020 nous aura fait naviguer entre crises et espoirs de mois en mois en laissant finalement un bilan complexe : nous ne reviendrons jamais en arrière sur cette société digitale, elle nous accompagnera encore longtemps, mais il devient urgent pour chacun de prendre conscience de ses dérives et de trouver – chacun à sa mesure – le moyen de lutter contre elles.

2021, année responsable

Pour autant, l’année 2021 ne démarre peut-être pas sous de si mauvais signes. Dans le flot d’actualité de ces dernières semaines, occupé en grande partie par la pandémie et l’actualité politique américaine, on voit poindre les premiers discours, les premières actions de lutte contre l’hystérie ambiante.

Elles sont juridiques et politiques. En décembre, 46 états américains ont déposé une plainte contre Facebook pour position monopolistique [3]. La commission européenne semble vouloir durcir le ton face aux politiques fiscales des GAFA [4]. Les travailleurs de Google ont, en ce début d’année, fondé le premier syndicat de l’histoire de l’entreprise [5]. Et enfin, Facebook et Twitter ont, pour la première fois en quatre ans, suspendu les comptes de Donald Trump à la suite des évènements du Capitole américain du 6 janvier.

Des signes qui permettent d’imaginer une année numérique 2021 responsable. Responsable quant à l’impact du numérique sur nos vies quotidiennes, nos opinions et nos relations avec les autres. Responsable quant à la place qu’occupent ces outils dans nos vies. Mais une année responsable uniquement si chacun des professionnels – de plus en plus nombreux – qui opèrent au quotidien dans les sphères digitales agit également pour un numérique positif.

5 principes pour un numérique positif

Pourquoi parler de cela quand on est une agence de design digital ? Aujourd’hui, être partie prenante de l’écosystème numérique, c’est être au choix une composante de l’hystérie ou un apporteur de solutions. Chaque agence, chaque acteur digital devra en 2021 choisir les actions qu’elle entend mener pour ce monde numérique positif que nous souhaitons tous.

Pleinement conscients de notre impact sur la société et le monde qui nous entoure, par le biais de nos développements d’outils digitaux, nous nous engageons chez Plan.Net à respecter 5 principes d’un numérique positif :

  1. Se poser la question non plus des utilisateurs – ces personas parfois désincarnés qui ont envahi les méthodologies – mais des humains qui sont exposés et impactés, parfois indirectement, par les outils que nous concevons.
  2. Interroger l’impact écologique de nos actions et de nos architectures, et réduire celui-ci dès que cela est possible.
  3. Imaginer un monde numérique ouvert, accessible et interopérable, qui prend en compte les particularités d’usage de chacun et qui laisse une place aux outils libres ainsi qu’aux alternatives déconnectées pour ceux qui le souhaitent.
  4. Cesser de penser que le digital est LA solution à chacun des problèmes et savoir revenir en arrière, proposer des outils parfois plus simples et moins impactant quand ceux-ci sont suffisants.
  5. Ne jamais s’arrêter de penser positivement les outils numériques – dans la lignée de la volonté de diffusion et de construction de communs des pionniers du Web – tout en gardant conscience des limites et des effets néfastes de ceux-ci

En 2021, nous pouvons ainsi continuer d’être fiers de travailler dans une agence numérique et apporter notre pierre – modeste – à la construction d’un monde digital plus juste, inclusif et réellement utile.

C’est ça, être une agence numérique positive.

Dans une année 2020 riche en évènements et en rebondissements, une question se fait de plus en plus saillante : celle de la construction d’un « Numérique positif ».

Alors que la place des outils digitaux – du smartphone aux réseaux sociaux – ne se pose plus, celle de leur impact et de la façon d’en tirer le meilleur se fait de plus en plus urgente. Face aux manipulations, aux théories conspirationnistes, aux harcèlements et à l’impact écologique, quelle est la responsabilité et les actions possibles des acteurs du numérique ? Comme imaginer et bâtir ce meilleur ?

La réflexion qui suit se base sur de nombreuses lectures faites cette année, dont particulièrement : Ruined by Design de Mike Monteiro (2019) et Le Design des choses à l’heure du numérique de Jean-Louis Fréchin (2019). Décryptage.

Parler de Design ou d’UX ?

Mais avant de s’attaquer au fond du problème, une petite précision de vocabulaire… Si Mike Monteiro et Jean-Louis Fréchin abordent tous les deux le sujet de la responsabilité du Design dans la société et l’avenir de la planète, ils ne donnent pas le même sens à ce mot, différence de culture oblige. Jean-Louis Fréchin le rappelle d’ailleurs très bien dans l’ouverture du Design des Choses : l’origine du mot Design est complexe, et son sens a été filtré par bien des biais et des cultures. D’abord Italien, puis Français et Anglais aux XVIIIe et XIXe siècles, Allemand à l’aube du XXe siècle et Américain dans sa seconde moitié, le terme regroupe une foule d’imaginaire.

Dans Le Design des Choses, on parle de Design au sens européen, de la pratique issue à la fois de l’art et de l’architecture, qui vise à imaginer et concevoir des produits ambitieux, portant non seulement un usage, mais aussi une vision de société.

Dans Ruined by Design, Mike Monteiro lui aborde le Design sous son aspect américain issu des Trente Glorieuses et de la société de consommation née pendant la guerre froide. Un Design apporteur de solutions, répondant à un problème posé, et favorisant avant tout l’attractivité des produits et donc la consommation. Un Design qui trouve son expression la plus protocolaire dans les méthodologies UX qui fleurissent au sein des entreprises.

Un Design qui imagine d’un côté, un Design qui répond de l’autre. Des visions pas forcément opposées, mais qui, logiquement, apportent des réponses différentes à la problématique de la responsabilité sociétale et écologique du numérique.

Celui qui dit non

Ruined by Design, Mike Monteiro, auto-édition.
Ruined by Design, Mike Monteiro, auto-édition.

Commençons par Mike Monteiro. Dans Ruined by Design, il partage un long article de blog de 200 pages. Un texte à charge contre les GAFA – Facebook et Twitter en tête – et contre les usages abusifs du numérique aujourd’hui. Et ces charges sont lourdes : on pense d’abord à la responsabilité politique des plateformes sociales, notamment lors de l’élection de Donald Trump ou du referendum anglais sur le Brexit. Mais On parle également du refus de filtrer certains propos sur les plateformes sociales, de l’ensemble des biais qui existent aujourd’hui dans les algorithmes et aussi de l’impact environnemental de la consommation numérique.

Derrière ces filtres, ces biais, ces plateformes, il y a des designers – au sens américains – qui dessinent des réponses à des problématiques données. Ces problématiques étant le plus souvent « Comment gagner plus d’audience ? » ou « Comment gagner plus d’argent ? ». Aujourd’hui, un UX designer éthique peut-il encore, honnêtement, supporter et contribuer à ces plateformes ? Pour Mike Monteiro, la réponse est claire : c’est NON.

Mike Monteiro définit le rôle du designer comme celui d’une vigie, d’un gardien. Le designer est celui qui doit refuser les projets dont l’impact est négatif – pour la société, pour les individus, pour la planète – dénoncer ceux-ci et les rendre impossibles. La force du designer est sa capacité à refuser d’apporter les solutions quand la question posée n’est pas éthique, juste, honnête.

Celui qui imagine

Le design des choses à l'heure du numérique, Jean Louis Fréchin chez FYP.
Le Design des choses à l’heure du numérique – Jean Louis Fréchin, FYP.

Mais est-ce qu’aujourd’hui, dire non est encore suffisant ? Mike Monteiro milite pour la prise de conscience globale d’une industrie face à ses responsabilités et appellent à quitter, boycotter, ces géants menaçant la société humaine. Même si chaque goutte d’eau compte, c’est oublier aussi un peu vite qu’il y aura toujours quelqu’un pour endosser ce mauvais rôle. La logique du « NON » a ses limites, c’est les « OUI » des autres.

Dans Le Design des Choses, Jean-Louis Fréchin repose la question du rôle et de l’ambition des designers dans leur définition historique issue de la Renaissance italienne. En résumé, au risque d’être caricatural, le designer européen n’est pas là pour apporter des solutions, mais pour imaginer des possibles. À la différence de son homologue américain présenté par Mike Monteiro, il ne répond pas à des questions imposées, à un cahier des charges mais crée des systèmes entiers, dans leurs dimensions à la fois pratique, artistique mais également sociale et désormais environnementale.

Le designer de Jean-Louis Fréchin est un imagineur qui doit non seulement apporter des solutions pratiques, mais également imaginer, définir l’avenir vers lequel il veut tendre. Une approche qui demande des compétences complexes, un mélange de sensibilité et de capacité à produire, un croisement des héritages de l’art et de l’artisanat. Bref, un retour aux sources du Design européen.

Rien ne se gagnera seul

Mais face à l’urgence qu’il y a à bâtir à nouveau un Numérique positif, combinant à la fois les idéaux peut-être un peu naïfs des débuts et les aspects pragmatiques de la sphère économique digitale, y’a-t-il réellement opposition entre le Designer-qui dit-non et le Designer-qui-imagine ?

Aucun combat, surtout les plus complexes, ne se gagne sur un seul front. Et si l’on veut demain s’opposer à certains des modèles portés par les GAFA et dénoncés presque unilatéralement aujourd’hui, il faudra à la fois avoir le courage de refuser – d’utiliser et de concevoir – certaines solutions et l’imagination d’en créer de nouvelles. Combiner engagement et création, pragmatisme et idéal.

Notre rôle à nous, acteurs du numérique, est désormais d’assumer les deux combats. Il nous faut refuser, dans un souci d’éthique, les solutions qui nuisent aux individus, à la société, la planète et pointer du doigt ces dérives dès qu’elles se présentent, dans un brainstorming, un atelier, une co-construction. Cela nous impose de penser plus loin les impacts de nos projets, de nous interroger sur la consommation carbone d’un bouton vert ou de l’emprise mentale des applications que nous concevons. Et de passer tous nos chantiers à ce filtre. Éprouvant, mais nécessaire.

Mais notre rôle est également de lever le nez de nos claviers pour voir plus loin que chaque projet individuel pour imaginer de nouveaux usages, de nouveaux objets, de nouveaux langages du design qui génèrent à la fois un imaginaire, un nouvel enthousiasme et de l’appropriation. Il est temps de sortir le nez des seuls indicateurs de performance pour voir plus grand. Notre monde le mérite.

De quelque côté du Design que vous vous sentiez, dîtes-vous que pour un digital plus responsable demain, on aura besoin de tout le monde !

L’actualité technologique de l’été qui s’achève met, encore, à l’honneur les avancées et les inquiétudes qui entourent l’intelligence artificielle. On y parle en vrac de jeux vidéo et de voitures autonomes. Mais on y voit surtout l’occasion de rappeler une fois de plus que sans DATA, l’intelligence artificielle n’est finalement pas grand-chose.

Quand les immeubles sortent de terre…

D’abord, Microsoft Flight Simulator [1]. Le légendaire simulateur de vol est revenu cette année dans une nouvelle édition après quelques années d’absence. Et cette version permet de survoler l’intégralité du globe terrestre aux commandes de l’avion de votre choix. Pour arriver à cette prouesse – la modélisation de la Terre entière – Microsoft s’est basé sur les données géographiques disponibles dans l’Open Street Map Project [2] – un projet cartographique collaboratif mondial qui concurrence ouvertement les applications de Google et d’Apple.

Cette utilisation d’une base collaborative et open-data a permis aux développeurs du jeu de générer rapidement et à moindre coût l’ensemble des décors qui leur étaient nécessaires. Avec toutefois quelques surprises. Ainsi, les joueurs survolant Melbourne, en Australie, ont eu la surprise de découvrir dans les faubourgs de la ville une tour de plusieurs centaines de mètres de hauteur, là où n’existent dans la réalité que de bien classiques pavillons de banlieue [3]. La faute à… une faute de frappe. L’un des contributeurs d’Open Street Map aura, peu de temps avant la récupération des données par Microsoft, complété les données de ce quartier de Melbourne et indiqué que l’un des bâtiments comporte 212 étages au lieu de… deux.

Une simple erreur, certes, mais une erreur qui n’a pas été détectée par l’intelligence artificielle chargée de créer l’ensemble des décors du jeu. D’ailleurs, l’utilisation de celle-ci a également fait l’objet de critique de la part de nombre de joueurs. En effet, pour l’IA de Microsoft, un bâtiment est un bâtiment comme un autre, et un pont et un pont comme un autre, quels que soient son importance et son aspect patrimonial. Ainsi, le Palais de Buckingham à Londres s’est vu doté du même look qu’un immeuble de bureau quelconque [4], et le pont du port de Sydney a perdu ses célèbres arches [5]. Des maladresses qui seront corrigées prochainement par les concepteurs du jeu, mais qui montrent bien les limites d’une IA dans la reproduction de la diversité terrestre.

… et que les voitures freinent toutes seules

Plus inquiétante est l’expérience menée par des scientifiques israéliens au cours du mois d’août. A l’aide d’un drone équipé d’un projecteur, ceux-ci ont réussi à tromper les capteurs d’une voiture autonome de type Tesla [6]. En projetant l’image d’un piéton ou d’une autre voiture, ils ont ainsi provoqué un freinage d’urgence de la part du véhicule. Mais plus grave, en projetant des lignes au sol, ils ont réussi à faire dévier la Tesla – alors en mode autonome – de sa trajectoire initiale. On peut imaginer à partir de cette expérience tout type de manipulation de l’intelligence artificielle qui conduit le véhicule : de nouveaux panneaux, des limitations de vitesse fantaisiste et pourquoi le « masquage » de certains éléments réels de l’environnement.

Tromper les capteurs d’une voiture autonome n’est pas une idée nouvelle. Un artiste anglais, James Bridle, avait déjà imaginé en 2017 un Car Trap [7], un cercle qui prendrait au piège les véhicules autonomes et les empêcherait de s’échapper. Une vue d’artiste qui révèle les lacunes du système.

Une IA, ça ne doute pas

Ces deux expériences ne sont que des extraits de l’actualité qui a entouré l’IA au cours des derniers mois. Elles ne reflètent pas, par exemple, les progrès enregistrés par les chercheurs dans les domaines médicaux grâce aux programmes d’intelligence artificielle. Mais, sans invalider la notion même d’IA, elles nous font nous poser quelques questions cruciales pour la maîtrise de cette technologie qui semble appeler à dominer nos vies.

Qu’est-ce qui fait, pour une intelligence artificielle, la véracité d’une donnée ? Le moteur de rendu de Microsoft Flight Simulator ne s’est pas posé la moindre question avant de représenter une tour de 212 étages au milieu des faubourgs de Melbourne. Pas plus que l’intelligence artificielle de la Tesla quand elle a vu apparaître une silhouette humaine face à elle. Les intelligences artificielles, tout comme les algorithmes simples, ne sont pas conçus aujourd’hui pour s’assurer de la véracité, et encore de moins de la réalité, d’une donnée. Ils sont conçus pour traiter des données en entrée et en déduire le comportement le plus adapté : quelle texture appliquer à un immeuble, dans quelle direction aller, etc.

Que se passe-t-il donc quand la donnée qui leur est fournie est fausse ? Volontairement ou non. Quand une erreur s’est glissée dans un fichier ? Quand une manipulation a été faite avec une intention peu louable ? Ou simplement lorsqu’une information est manquante et que la Data ne permet pas une prise de connaissance complète de l’environnement ?

Et l’état, les intelligences artificielles dont on parle régulièrement ne détectent bien souvent pas ces erreurs ou ces manipulations – sauf si elles sont conçus spécifiquement pour cela comme celles qui traquent au quotidien les deepfakes [8] – même si elles mènent à des aberrations. Une IA, par définition, ne doute pas. Il est donc crucial, à mesure que les algorithmes prennent de la place dans notre quotidien, de savoir qui maîtrise la réalité et de s’assurer – faute d’instiller du doute chez les robots – de la fiabilité de toutes les informations utilisées par nos futurs systèmes.

La leçon vaut pour tout système qui entend traiter automatiquement de l’information. A l’heure où il n’a jamais été aussi facile de créer du contenu – qu’il s’agisse de faux profils sur les réseaux sociaux [9] ou de faux articles dans les revues scientifiques [10] – et parfois d’articles créés à l’aide d’une intelligence artificielle [11] – il convient d’être de plus en plus prudent avant d’affecter un traitement à une données. La vérification des données, mais également leur certification, doit devenir un point crucial de la politique numérique des entreprises. A défaut, aucun déploiement d’intelligence artificielle ne pourra se faire sans danger.

Alors, si vous ne voulez pas rater la révolution de l’IA, commencer par maîtriser celle de la DATA.

Le mois dernier, j’ai tué deux sites internet.

Deux blogs, dédiés au marketing et aux nouvelles technologies. Plus de 500 articles si ma mémoire ne me trompe pas. Plus de 5 années d’écriture sur les évolutions de nos métiers. Quelques giga-octets d’images et de base de données qui, il faut bien l’avouer, n’intéressaient plus réellement les foules.

Deux noms de domaine qui seront récupérés rapidement, n’en doutons pas, par quelques mineurs d’audience et chasseurs de liens.

Le mois dernier, j’ai tué deux sites Web.

Et c’est l’occasion de se poser la question de l’hygiène du Web et du rôle de notre environnement préféré dans la sauvegarde du savoir humain, mais aussi dans la sauvegarde de la planète.

CONSERVER LA MÉMOIRE DU MONDE

L’ambition de faire du Net une bibliothèque universelle ne date pas d’hier. Elle date même de bien avant son invention. Déjà, dans les premières ébauches de ce qui deviendra le Web – qu’il s’agisse du Memex [1] de Vannevar Bush dans les années 1940 ou de la volonté de mise en réseau des ordinateurs de l’ARPANET [2] – il y a cette volonté de rendre le maximum d’informations disponible à tous par l’intermédiaire des outils informatiques. C’est le Web de Tim Berners-Lee [3] en 1990 va permettre de concrétiser enfin cette ambition.

Aujourd’hui, tout se numérise, tout se sauvegarde et tout se partage, du plus noble des contenus au plus insignifiant des textes. S’il fallait lister les initiatives d’enregistrement de la connaissance humaine, un blog entier n’y suffirait pas. Dans la prolongation des travaux d’archivage initiés les siècles précédents, le Net donne accès aujourd’hui à une grande partie de la connaissance humaine.

On y trouve des textes, bien entendu, allant de l’ensemble des archives déjà numérisées un peu partout dans le monde – on ne citerait que Gallica [4] pour les archives françaises –aux partages de connaissance de la Wikipédia [5]. On y trouve des images, via là encore les fonds des plus grandes bibliothèque (par exemple, la bibliothèque du Congrès américain [6]) mais également les contributions régulières des inconnus sur les plateformes de partage d’images comme Flickr ou Instagram. On y trouve de la vidéo et du son… bref, on y trouve de tout.

madelen, la plateforme de VOD de l’INA.

Le Net, on le sait, a contribué à sauver bien des contenus et à rendre accessibles à tous bien des témoignages du génie humain. Des films oubliés retrouvent une nouvelle vie grâce au site Archives.org [7]. Les collections des grands musées mondiaux sont accessibles au plus grand monde, et sans se déplacer, grâce aux initiatives de Google [8]Et le Net s’archive également lui-même, pour ne rien perdre de son histoire grâce à la désormais célèbre WayBack Machine [9].

ET PARFOIS, OUBLIER…

Bien entendu, il y a parfois des couacs. Comme les musées [10] et les bibliothèques réelles peuvent brûler, les bibliothèques digitales peuvent elles aussi disparaître, volontairement ou non.

Ceux qui comme moi ont travaillé il y a longtemps chez un hébergeur – gratuit pour ma part – se souviennent de l’angoisse à la perte d’un serveur et de l’ensemble des données qu’il pouvait contenir. On a vu ainsi, chez MultiMania, des centaines de sites Web personnels s’effacer suite au crash d’un disque dur. Et même si le parallèle avec les disparitions majeures d’archives culturelles [11] est difficile à soutenir, ces contenus sont bien une part de la mémoire collective de l’humanité.

Au cours des dernières années, le Net a procédé à bien des suppressions de contenu, volontaires ou non. Ainsi, Tumblr a supprimé de nombreux blogs et photos lors de sa session par Yahoo! en 2018, suite à un changement de ses règles de modération et au refus d’héberger des contenus jugés pornographiques [12]. Myspace, le réseau star des musiciens qui a contribué à révéler, notamment, les Arctic Monkeys, a perdu en 2019 la quasi-intégralité des enregistrements qu’il hébergeait avant 2012 [13].

Les couacs existent. La mémoire digitale comme toute mémoire est faillible.

MARIE KONDO ET LES RÉSEAUX SOCIAUX

On ne s’y trompera pas. Si elle connaît quelques couacs, l’entreprise globale de sauvegarde du savoir de l’Humanité que représente internet est salutaire.

Mais jusqu’où est-il pertinent de conserver ou de donner accès à des archives ? La capacité sans limite du monde virtuel – sans limite car non matériel – fait qu’on ne se pose plus la question du « raisonnable ». Puisque tout est enregistrable, tout doit être enregistré. Puisque tout peut être consulté, tout doit être consultable.

On arrive alors à un paradoxe : l’information ne meurt plus.

Auchan sur YouTube, 8 ans de vidéos disponibles en ligne.

On parlera bien entendu des boîtes emails [14] qui ne désemplissent plus, mais également des comptes sociaux des grandes entreprises qui conservent, ad nauseam, une trace du passé. C’est ainsi qu’une chaîne YouTube comme celle des hypermarchés Auchan [15] garde trace des recettes de cuisine postées il y a plus de 8 ans. Certes, les recettes de Cabillaud aux vapeurs d’aneth et carottes râpées [16] sont intemporelles. Mais 8 ans après ces publications, le compte Auchan a vu passé des centaines d’autres contenus… et il y a peu de chance que les algorithmes de la plateforme vidéo de Google fassent aujourd’hui remonter cette vidéo en particulier face aux centaines d’autres recettes de cabillaud vapeur [17] qui occupent l’inventaire de YouTube. Le cabillaud d’Auchan fait partie de ces archives oubliées, qui ne servent a priori plus la marque – même si les statistiques peuvent me contredire – mais qui occupent toujours de l’espace quelque part dans un data center. Une sorte de décharge oubliée.

A l’instar de ce qu’à préconiser un temps Marie Kondō [18], ne serait-il pas pertinent de ne conserver sur les réseaux sociaux des marques uniquement les 3 contenus qui procurent réellement du bonheur ?

ÉCRIRE, MAIS PAS POUR LES HUMAINS

Mais il y a plus vicieux, il y a également le contenu qui, même périmé, est conçu pour attirer. On le sait, les algorithmes des moteurs de recherche et des réseaux sociaux s’alimentent de contenu. Plus ces contenus sont nombreux, plus ils peuvent avoir de poids dans les logiques de classement et de mise en avant des sites. C’est bien entendu loin d’être le composant principal d’un bon SEO ou d’une bonne visibilité sur les réseaux sociaux, mais c’est un argument non négligeable pour bien des marques : un site à l’inventaire important apparaît mieux dans Google qu’un site ne proposant qu’une vingtaine de pages.

C’est particulièrement vrai pour les sites de e-Commerce, qui veillent donc à renforcer leur contenu et leur inventaire pour répondre aux jeux de requêtes les plus vastes possible. Ainsi, Cultura – l’enseigne française de biens culturels et de loisirs créatifs – propose sur son site de nombreux livres dont certains sont épuisés depuis longtemps. Pour exemple :

Cultura propose à la vente des livres en rupture de stocks depuis longtemps

Un ouvrage publié en 2002 [19]. Une maison d’édition disparue en 2013 [20]. Une version de logiciel produite en 2001 et une plateforme dont l’abandon a d’ailleurs été annoncé en juillet 2017 par Adobe [21]. Cet ouvrage, et beaucoup d’autres, n’a que peu de chance d’être commandé en ligne, et encore moins de chance d’être livré en boutique. Il est épuisé et passé au pilon depuis longtemps. Cultura ne proposant pas, au contraire d’Amazon, de marketplace, il ne sera pas non plus vendu d’occasion par un tiers. Quel est alors l’intérêt de proposer, dans son catalogue, de tels contenus, si ce n’est proposer aux moteurs de recherche un maximum de contenus ?

On a déjà détaillé par le passé les stratégies du Bruit [22], consistant à produire du contenu en masse afin de satisfaire les algorithmes des moteurs de recherche et des réseaux sociaux, mais il y a autre chose derrière ces quelques exemples : il y a une incapacité du Net à se réguler.

BEAUCOUP DE NEGLIGENCE

Bien entendu, tout n’est pas que mauvaise intention parmi les quelques exemples cités plus haut. Une vidéo postée il y a 8 ans sur les réseaux sociaux, on l’oublie vite. Elle se trouve rapidement poussée tout en bas de scroll par de nouveaux contenus, plus à la mode, plus performants, plus en phase avec la marque. Le travail de production de contenu à destination des plateformes sociales est déjà si chronophage qu’on hésite à accuser les pauvres Community manager de ne pas nettoyer derrière eux.

De même, les gestionnaires des bases de données – comme celles où s’indexent les publications des principales maisons d’édition – sont là avant tout pour garantir la fraicheur du catalogue, la prompte disponibilité des futurs hits de la rentrée littéraire. Difficile de trouver le temps de nettoyer les références caduques.

Il y a beaucoup de négligence : la négligence de ne pas penser aux conséquences de ses contenus – comme on ne pense pas à la consommation d’eau en se brossant les dents – et la négligence de ne pas penser des systèmes prenant en compte leur propre fin de vie.

Il y a, à bien une réfléchir, une discipline de l’UX à imaginer : l’UX de l’hygiène digitale.

Elle consisterait à concevoir, dès les premiers pas d’un produit numérique, la façon dont celui-ci cessera d’impacter son environnement. L’effacement des données, la réduction des accès aux références disparues, la gestion des historiques inutiles… une discipline qui

MAIS AUSSI UN PEU DE MALVEILLANCE

Mais la négligence n’explique pas tout. L’industrie digitale a horreur du vide, des domaines inutilisés ou des contenus caduques. L’industrie numérique ne jette rien. Ou en tout cas pas volontairement. Tous ceux qui ont, il y a dix ou vingt ans créés des sites Internet peuvent témoigner : les sites Web ne meurent pas.

L’invasion des sites zombies

Ces deux domaines qui j’ai abandonnés le mois dernier, gageons qu’ils ne sont pas restés inutilisés longtemps. Leur historique, leur ancienneté aura attiré quelques Growth Hacker ou quelques négociant indépendant de trafic. Ces deux sites vivent désormais leur vie comme, non pas des projets éditoriaux, mais des espaces digitaux destinés à draguer des liens vers d’autres sites Web, et à diffuser de la publicité vendue au clic ou à la vue. Ils aident Google à rester indéboulonnable et à nourrir un écosystème numérique qui tourne en boucle.

Les sites web morts permettent à d’autres sites web morts de ressusciter et à générer en boucle cet Internet du Bruit.

Est-ce que cela en vaut la peine ? La logique capitaliste de la publicité digitale ne se pose pas la question : le Web vu par les référenceurs et les marketeurs n’est qu’une bulle en croissance. En croissance de domaine, en croissance de page, en croissance de publicité, en croissance de revenus… et malheureusement en croissance de stockage.

L’HYGIÈNE DU NUMÉRIQUE, LA RESPONSABILITÉ DE TOUS

Les préoccupations sont nombreuses aujourd’hui autour de l’impact de l’économie numérique sur le dérèglement climatique. Les doutes eux ne sont plus permis. On le sait, l’industrie numérique dans son ensemble – loisir et professionnel, matériel et logiciel… – pollue aujourd’hui plus que le transport aérien [23]. L’impact de nos outils digitaux en France sont l’équivalent de 6,2% de la consommation d’énergie de l’hexagone et de plus de 5% de ses émissions de gaz à effet de serre [24].

Il est inconscient, voire irresponsable, de penser que nos petits sites Web et nos vidéos ne sont qu’une goutte d’eau dans la pollution globale que subit la planète. L’industrie numérique, c’est aujourd’hui une foule de professionnels qui produisent en boucle du CO² pour une meilleure visibilité sur les moteurs de recherche et des vues supplémentaires dans les réseaux sociaux.

A l’heure où des mesures [25] pour lutter contre l’impact écologique du numérique commencent à être évoquées, comme la fin des forfaits de connexion illimités [26], il serait peut-être temps que l’industrie libérale du digital prenne des mesures d’hygiène pour sa propre sauvegarde. Et sans parler de décroissance, qu’elle apprenne à tout le moins à concevoir des outils digitaux propres et à nettoyer derrière elle.

C’est devenu une habitude depuis plus de vingt ans. Google annonce régulièrement des mises à jour de son algorithme de classement des sites Web et édicte tout aussi régulièrement des recommandations quant à la façon de créer, maintenir et faire vivre les sites Web. Parfois, ces recommandations concernent le contenu, d’autres fois la technique ou la façon dont les sites Web sont liés entre eux par l’intermédiaire de liens.

Les dernières communications de Google, fin mai, suivent une tendance de fond dans les recommandations du moteur : faire de l’UX, c’est désormais aussi faire du SEO.

A la découverte des Core Web Vitals

Retour sur lannonce de fin mai. Google a rendu disponible dans sa Search Console un rapport dédié à ce qu’il appelle les Core Web Vitals, trois nouvelles données qui évaluent la vitesse de chargement d’un site et surtout la façon dont celui-ci se comporte à l’écran face aux internautes. Ces trois nouvelles données s’ajoutent à l’estimation du temps de chargement des pages (FCP, First Content Paint) qui existait déjà dans différents outils fournis par Google.

Si l’on veut résumer, et comprendre, ce que sont désormais les Signaux Web Vitaux pour Google, voici ce qu’il faudrait retenir :

  • FCP – First Content Paint : premier indicateur, il évalue le temps de chargement initial de votre page, c’est-à-dire le temps que met à apparaître à l’écran le premier élément graphique, qu’il s’agisse de texte, d’image ou de n’importe quel autre type d’élément. Avant ce premier affichage, le visiteur de votre site ne voit sur son écran de smartphone qu’une page blanche, et peut donc légitimement se demander si votre site fonctionne.
  • FID – First Input Delay : en complément, cet indicateur mesure le temps que met à apparaître le premier élément interactif de votre page, lien ou champ de formulaire. Il mesure donc, en complément, le temps d’inactivité potentiel de l’internaute. Avant cet événement, le visiteur de votre site doit se contenter de regarder l’affichage des éléments mais ne peut cliquer pour afficher un contenu plus précis ou accéder à une autre page de contenu. Autant de temps perdu si votre visiteur est décidé sur les actions qu’il veut mener.
  • LCP – Largest Contentful Paint : avec cet indicateur, Google continue son exploration du chargement des pages. Il mesure ici le temps que met à apparaître à l’écran le contenu qu’il juge le plus important sur celle-ci. Il s’agit en général d’une photo, mais cela peut également être une vidéo ou un paragraphe de texte particulièrement long. Le chargement de cet élément peut donner à l’internaute que la page est complète, ou en tout cas qu’il peut commencer à interagir sans manquer une information cruciale pour la suite de son parcours
  • CLS – Cummulative Layout Shift : dernier indicateur, il mesure la stabilité de la page. Vous l’avez tous vécu, rien n’est plus énervant que ce moment où vous vous apprêtez à cliquer sur un lien et que le bandeau d’acceptation des cookies fait brusquement bouger. Au mieux, il ne se passe rien, au pire, vous avez alors cliqué sur une bannière publicitaire. Google privilégie les pages « stables », c’est-à-dire dans lesquelles aucun élément ne change de place au cours du chargement.

On le voit bien, ces quatre indicateurs ne sont pas uniquement techniques – même s’ils dépendent énormément de l’optimisation techniques des sites Web. Ils concernent avant tout l’expérience utilisateur.

Pour vous donner une idée de l’impact de ces indicateurs sur l’expérience utilisateur, le rapport PageSpeed Insights évolue d’ailleurs et présente désormais un aperçu visuel du chargement des pages, sous forme de vignettes. Une bonne façon de voir les délais de chargement de chaque élément de vos pages.

Google l’a annoncé, les trois nouveaux indicateurs communiqués fin mai – FID, LCP et CLS – sont aujourd’hui fournis à titre indicatifs. Ils entreront toutefois dans l’algorithme de Google dès 2021, une bonne raison pour travailler leur optimisation dès à présent !

Travailler l’UX d’avant l’UX

En focalisant ses prochaines mises à jour d’algorithme sur ces quatre indicateurs, et sur quelques autres révolutions comme l’abandon progressif de la technologie AMP (Accelerated Mobile Page), Google met en lumière un espace qui était jusqu’ici le trou noir de l’UX.

Les habitués des méthodes d’amélioration de l’expérience utilisateur ne s’étonneront pas du constat qui suit : aujourd’hui, l’ensemble des pratiques qui visent à travailler cette expérience sur une page Web ou un écran d’app mobile se concentrent avant tout sur des wireframes et sur des maquettes. C’est-à-dire sur des représentations finies de l’environnement dans lequel évoluera l’internaute. On y discute, pour la partie UI, de la taille des boutons ou de l’accessibilité des menus de navigation, et pour la partie UX de la logique de l’organisation de l’information ou de l’évidence des enchaînements d’écran dans des process longs. Et c’est déjà énorme.

Mais ce qui se passe avant l’affichage de la page complète, de la maquette finalisée, est souvent laissé aux bons soins de l’IT. C’est une question de performance technique, de rapidité des serveurs, de temps de chargement. Et si tout le monde se met d’accord pour dire qu’une page au chargement rapide contribue à l’excellence de l’expérience utilisateur, peu nombreux sont ceux qui se demandent déjà ce que ce « rapide » veut réellement dire.

Google a d’ailleurs longtemps réduit le chargement de la page à des questions purement techniques. Les outils d’audit fournis par le moteur de recherche, et notamment le PageSpeed Insight, ont avant tout fourni à la communauté SEO des indicateurs et des recommandations purement techniques : réduire la taille des fichiers images, alléger le Javascript et les CSS, diminuer les appels à des serveurs externes. Il n’était pas question ici de confort, mais de performance.

Les Core Web Vitals exposés fin mai sont un changement de paradigme dans la perception de la performance par le moteur de recherche. Les rapports du PageSpeed Insights changent d’ailleurs de forme pour l’occasion.
S’ils restent des indicateurs chiffrés – on ne change pas une culture d’ingénieur aussi facilement – ils se concentrent non plus sur la performance pure, mais sur le ressenti du chargement de la page, en imaginant des questions d’internautes telles Puis-je enfin cliquer ? ou Tout le contenu est-il affiché ? Des questions qui parlent bien de l’expérience utilisateur.

Ces nouveaux critères vont donc obliger certains spécialistes de l’UX à étoffer leurs analyses, et à se pencher sur l’Expérience Utilisateur d’avant l’Expérience Utilisateur, une sorte de perception globale du Web incluant des éléments qui n’ont plus de rapport direct avec l’ergonomie. Une façon de réintégrer de la technique à l’UX et de faire – enfin – sauter quelques cloisons.

Il reste donc six mois pour envisager les bonnes mesures.

Tom Cruise face à ses écrans dans Minority Report

Réfléchissez bien… Faites le tour des films et séries de science-fiction que vous avez vu au cours des dernières années. N’ont-ils pas un point commun ?

Bien sûr que si : les écrans transparents ! Regardez bien, ils sont partout !

C’est une gigantesque interface transparente que manipule Tom Cruise afin de prévenir les crimes dans Minority Report. C’est une interface tactile invisible qu’utilisent Tony Stark ou Black Widow pour mettre au point les tactiques d’attaque des Avengers. Et ce sont encore des écrans transparents qui permettent d’explorer la planète d’Avatar ou de contrôler les robots-boxeurs de Real Steal.

Aussi certainement que les voitures volantes marquaient la science-fiction des années 1980, l’écran transparent est aujourd’hui la signature du futur dans l’imaginaire collectif.

Mais dans la réalité, où en sommes-nous de ces interfaces transparentes ?

On a beau fouiller salles de bains et bureaux, si la révolution « tactile » a bien eu lieu, les écrans transparents n’ont pas encore envahi notre quotidien.

Ce n’est pourtant pas la technologie qui est en cause. Si l’on en croit les fabricants de tous bords, les interfaces transparentes sont aujourd’hui à portéé de… doigts. Des preuves, les interfaces tête haute ont commencé à équiper les voitures depuis quelques années. Elles permettent notamment de suivre la vitesse de son véhicule sans pour autant quitter la route des yeux, et surtout sans obstruer la vue du conducteur. De nombreuses marques, dont Jaguar ou Range Rover, ont travaillé à des affichages plus évolués, permettant d’afficher différentes informations sur l’environnement (les angles morts notamment) ou de substituer le pare-brise à l’écran du GPS. Mais on ne parle là que d’affichage, pas réellement d’interactivité.

Mais quand il s’agit de « cliquer » ou de manipuler des objets sur une surface transparente, le pare-brise n’est sans doute pas le meilleur lieu d’expérimentation, loin s’en faut. Alors, on imagine des vitres interactives à l’arrière du véhicule, sortent de tablettes transparentes permettant aux enfants de dessiner ou de zoomer sur le paysage lors de longs trajets. Toyota travaille notamment à ce concept depuis 2012 , sans qu’on l’ait vu pour l’instant dans nos campagnes. Même le célèbre MIT s’est penché sur cette révolution .

S’il faut parler d’interfaces « vitrées », la révolution a pour l’instant plutôt lieu dans la salle de bain. Les miroirs connectés ont été l’une des grandes innovations du CES 2019 à Las Vegas. Le principe est simple : à l’instar d’un iPhone, les miroirs sont connectés à des stores d’application qui permettent de vérifier les dernières actualités, la météo ou les notifications des réseaux sociaux tout en se brossant les dents. Cela ne garantit pas forcément une bonne hygiène bucco-dentaire, mais permet sans doute d’éviter que son Samsung Galaxy ne tombe malencontreusement dans le lavabo. Les tutoriels commencent même à fleurir sur YouTube, expliquant comment transformer un ordinateur Raspberry Pi ou une borne Alexa en « miroir intelligent ».

Consulter la météo ? On est quand même loin de Minority Report.

Et c’est peut-être que finalement la transparence n’est pas à chercher du côté des écrans. A bien y réfléchir, la technologie la plus prometteuse en termes de transparence n’est pas le verre… mais les projecteurs et les hologrammes. Et là, certaines expériences sont impressionnantes. On pensera, tout d’abord, aux écrans projetés des montres connectées, comme le Cicret Bracelet développé par une startup française et qui transforme votre avant-bras en un écran de smartphone. On pourrait également penser aux tests effectués par quelques entreprises, comme Thyssenkrupp, pour faciliter les opérations de maintenance de ses équipes. Equipés de casque Hololens de Microsoft, les opérateurs de ce fabricant d’ascenseurs peuvent ainsi voir, en superposition de leur intervention, les instructions de maintenance nécessaires.

Et pour compléter cela, on pensera enfin à Soli, le projet de Google destiné à interpréter nos gestes et à les transformer en commandes pour les smartphones. Après tout, nous utilisons déjà des interfaces gestuelles dans les jeux vidéo. Elles y sont simplement un peu moins sophistiquées. Alliée à des hologrammes ou à un écran projeté, on s’approche doucement de Minority Report.

Concrètement, elle est où la transparence ?

Les technologies de la transparence, plus ou moins avancées, sont donc là. Pourquoi, alors que les prototypes évoqués ici datent pour certains de 2012, ne vit-on pas au quotidien dans un univers digne d’Iron Man ?
En fait, en l’état des usages, il y a aujourd’hui peu de chance que nous voyons débarquer des écrans transparents sur nos smartphones et ordinateurs.

Pensez-donc à la façon dont vous utilisez aujourd’hui ces écrans : Netflix ? Instagram ? Et des emails professionnels ? Comment réagiriez-vous si le clavier sur lequel vous tapez vos SMS laissez voir votre pantalon ou le sol du métro ? Si l’écran de votre TV 4k prenait légèrement la teinte de votre papier-peint plutôt qu’un noir franc pendant les scènes de nuit des meilleures séries d’horreur ? Cela ne semble pas pratique. Car si les technologies existent et font vibrer les salons de l’innovation, nous n’avons aujourd’hui pas l’usage pour les écrans transparents. Nous voulons avant tout de belles images, et cette course à la qualité n’est compatible qu’avec un environnement visuel totalement maîtrisé : un fond noir ou un fond blanc. Ici la transparence n’est pas de mise.

Reste que les expériences de Jaguar, Toyota ou Tyssenkrupp ouvrent la voie à des usages précis : l’information ou la formation professionnelle dans un cadre maîtrisé, l’assistance à la conduite ou à la manipulation… En fait, des usages cadrés et souvent professionnels où les écrans ne doivent pas « distraire » une opération délicate.

Dans ces usages, la transparence fonctionne en fait déjà. La science-fiction s’est finalement moins trompée sur ça que sur les voitures volantes.

La crise du Covid-19 va changer bien des choses dans nos quotidiens. Et au-delà du déconfinement à venir, et de ses aspects pratiques, notre vie dans les prochains mois, va surtout être marqué par une relation particulière à la distance.
Travailler à distance, éviter la promiscuité, maintenir une distance sanitaire dans les espaces publics… ces comportements émergeant constituent un nouveau terrain d’expérimentation pour les outils numériques.

Travailler à distance, c’est possible !

Pour beaucoup d’entre-nous, qui travaillons dans les secteurs de la communication, du marketing et du numérique, le quotidien a déjà changé.

Depuis la mise en place du confinement au milieu du mois de mars, de nombreuses entreprises se sont vues contraintes de mettre en place une politique de télétravail. Et si certaines étaient préparées depuis longtemps à ces méthodes de collaboration à distance, pour d’autres le déploiement d’outils dédiés et l’empiétement de la sphère professionnelle au sein du domicile ont été une épreuve. Trouver les espaces, sanctuariser les temps – surtout quand l’école impose elle aussi les télé-devoirs – sont des casse-têtes pour bien des collaborateurs et un défi pour les organisations.

Zoom, l’illustration parfaite de nos changements d’habitude au travail

Mais les témoignages sont là, portés et diffusés sur LinkedIn comme autant de preuves de la vaillance et de la résilience de l’industrie de la communication : ça marche. On ne compte plus les écrans MS Teams ou Zoom montrant les collaborateurs rassemblés autour de la même table de réunion virtuelle, les apéros à distance entre salariés pour garder le contact, ou les routines partagées pour conserver le moral et la santé.

Certains d’entre nous ont vite pris des habitudes. Et dans le monde d’après, ce sera sans doute au tour des entreprises de s’adapter à celles-ci. Aura-t-on toujours besoin de ces grands open-spaces qui rassemblent régies ou agences ? Les grandes réunions auxquelles nous assistions régulièrement seront-elles encore indispensables ? Ne gagnerait-on pas un temps précieux à ne pas se déplacer chaque jour jusqu’aux bureaux ? Ces questions seront soulevées, dès l’été, par nombre de collaborateurs. Et elles vont nous obliger à penser de nouvelles façons de travailler dans lesquelles le numériques prendra, chez tous, la part qui lui est promis depuis tant d’années.

Quelle expérience de la distance en boutique ?

Mais cette nouvelle relation à la distance ne va pas concerner que les collaborateurs des entreprises. Demain, les clients eux-aussi feront part de nouvelles attentes et auront besoin de nouveaux repères.

Amazon Go, le magasin sans caisse ni file d’attente, va faire des émules post-confinement

Premier impacté, l’accueil en magasin va changer. Pour nombre d’entre-nous, la promiscuité des rayons, les files d’attente en caisse, les cabines d’essayage, ne vont être qu’un souvenir. Et le passage à un shopping où chaque acte se mesure en mètre va demander de l’organisation et des outils : les techniques héritées de la livraison ou du drive font aujourd’hui des émules dans le secteur du livre ou de la cosmétique. Demain, les applications de prise de rendez-vous, et en conséquence le commerce personnalisé, deviendront légions.

Les soldes ou le Black Friday – ces grands messes consuméristes – vont devoir être drastiquement repensées. Il semble hautement improbable que demain, les consommateurs se tassent dans des magasins en recherche de quelques habits en soldes, se frôlent et plongent leurs mains en même temps dans des bacs d’objets divers. Sans verser dans l’utopie hygiéniste, ces scènes de consommation à outrance, ou en tout cas leur aspect visible, seront sans doute bannies de notre quotidien.

Affluence, l’une des applications qui permet aujourd’hui
de connaître l’occupation et le temps d’attente de différents lieux publics.

Pour orchestrer en boutique la distanciation que l’on nous recommande dans les contacts quotidiens, le numérique semble aujourd’hui une des pistes. Le déploiement d’applications de shopping à distance, de prise de rendez-vous, mais également de gestion des flux en magasin sont autant de pistes que devront être explorées dans les semaines à venir.

Délocaliser l’information

La relation au consommateur n’est pas tout. Les relations entre entreprises, et notamment les métiers plus spécialisés dans le B2B, vont eux également subir une petite révolution.

Les freins que nous avons aujourd’hui vis-à-vis du contact et de la proximité ne cesseront pas dans la sphère professionnelle. Rendez-vous commerciaux, séminaires, grands événements ou encore visites d’entreprises vont devoir se réinventer. Et si pour certaines tâches, les alternatives sont simples à trouver – nous avons tous fait au cours des dernières semaines des rendez-vous client sur Skype ou des ateliers de réflexion dans Zoom – pour d’autres moments de la vie d’entreprise, la tâche s’avère plus ardue.

Travis Scott en live sur Fortnite, une idée des évènements de demain ?

La virtualisation – même si elle amène parfois une déshumanisation – semble être pour un temps la solution. Dès le début du confinement, des plateformes comme Second Life ont suscité un regain d’intérêt. Le secteur de l’événementiel a notamment multiplié les expérimentations. Parmi celles-ci, on retiendra les concerts virtuels de Lady Gaga ou des Rolling Stones organisés sur YouTube, celui de Travis Scott donné sur Fortnite, ou encore le salon Laval Virtual dédié à la réalité virtuelle organisé à distance dans un Laval Virtual World. Ces solutions, purement exploratoires, dessinent une partie de l’événementiel du futur.

La visite virtuelle d’usine, comme celle lancée par Janssen en 2019,
est-elle une solution à la crise de distance à venir ?

La réalité virtuelle, et surtout les casques Oculus en consort auront sans doute leur rôle à jouer dans cette relation business à distance. Sans doute pas dans les relations personnelles – même si on peut imaginer des conf-calls immersives, elles semblent terriblement contraignantes face à nos quotidiens actuels – mais dans la dématérialisation et la virtualisation des lieux. Comme les laboratoires Janssen l’ont fait en 2019, et comme le secteur immobilier l’expérimente depuis des années, il est facile aujourd’hui d’imaginer des visites virtuelles d’usines, d’expliquer des processus à distance et de former les gens, même de loin.

L’usine virtuelle de Safran, modèle du futur ?

La réalité virtuelle s’imbrique aujourd’hui dans le réel, à tel point que chez Safran, il n’est plus besoin de construire un prototype d’usine pour le tester, ni d’envoyer dans un quelconque local pour apprendre de nouvelles méthodes de travail. On virtualise tout. On travaille, échange et conçoit à distance.

Bannir le contact

Il est des gestes du quotidien pour lesquels nous devrons toujours nous déplacer. Et il est des gestes qui nécessiteront toujours une grande proximité. Ainsi, quand nous irons de nouveaux acheter des livres ou des produits de beauté, comment se passera le contact nécessaire à la transaction ?

La crise sanitaire actuelle réveille les fantasmes d’une société sans argent, ou toute transaction financière est dématérialisée. Mais même si certains pays semblent tendre vers cette utopie – les transactions physiques ne représentent plus que 2% des échanges en valeurs en Suède par exemple – le monde financier virtuel n’est peut-être pas pour demain. Ne serait-ce que parce que l’équipement ne peut pas toujours suivre : en 2019, 13% des Français ne possédaient pas de carte de paiement, 23% ne possédaient pas de smartphone.

La paiement sans-contact, la norme d’un monde Post-Covid ? Comme ici dans les transports en commun de Dijon, via la plateforme d’Open Payment de Keolis.

Pour autant, il faudra réfléchir demain à cette explosion du paiement sans contact, comme il est actuellement possible dans les petits commerces – sur un plafond d’ailleurs relevé à 50€ en ce début d’année – ou dans les transports en communs de quelques villes. Gageons également que la fin du contact voulu mènera à son lot d’expérimentations autour des magasins sans caisses et sans caissiers. On pense bien entendu à Amazon, même si le modèle est décrié, mais aussi – la boucle est bouclée – aux logiques d’abonnement mises en place par certaines librairies et aux drives des grandes surfaces. Des solutions qui encore une fois répondent à notre besoin de distance.

La technologie bien sûr… mais au service de l’humain

Les mois qui arrivent vont apporter de grands changements dans le comportement des utilisateurs. Ces mutations ont d’ailleurs déjà commencé, et se concrétisent dans notre quotidien. Marques, entreprises, agences… vont devoir être, plus que jamais, à l’écoute des attentes des utilisateurs en matière de sécurité, de services, mais également de transparence dans la communication.

Dans le monde d’après, la technologie ne sera pas une réponse simple aux nouvelles préoccupations. Elle ne sera qu’un élément d’un cocktail composé d’écoute de l’utilisateur, de respect de ses attentes – notamment en matière de vie privée, et le débat sur l’application StopCOVID montre combien ce sujet est sensible – et de souci environnemental toujours fort. Mais la technologie sera un élément indispensable de ce cocktail.

A nous de faire en sorte qu’il ne le rende pas amer.

Le Net a envahi notre quotidien, mais il doit encore évoluer pour devenir plus utile, mais aussi plus responsable.

De terrain de jeu pour geeks, Internet est devenu incontournable dans nos vies. Mais, alors qu’il y a 20 ans on se félicitait de l’ère d’ouverture culturelle et de partage qu’il allait provoquer, on l’accuse aujourd’hui de nous surveiller, travestir la vérité et de manipuler l’opinion.

Les technologies ont évolué à grande vitesse mais le Net pourtant n’a pas changé. Si on est passé du mail au snap, de la page Web à la story… les possibilités de rencontre, de partage, de découverte restent là, portées par des internautes friands de contacts et d’interactions.

Aujourd’hui comme hier, les outils digitaux rapprochent les utilisateurs, facilitent l’accès à la connaissance, améliorent l’expérience – et parfois la vie – des humains. Le monde connecté n’est peut-être pas féerique, mais il est loin d’être l’obscure dystopie qu’on dépeint souvent.

En 2020, les agences digitales doivent, plus que jamais, remettre à l’honneur un Digital utile et responsable, tout en gardant à l’esprit son impact sur les utilisateurs et sur la planète.

Avec leurs clients, elles peuvent développer des services réellement utiles aux internautes, citoyens, consommateurs ou collaborateurs. Elles doivent accompagner ces mêmes clients dans la maîtrise des enjeux du monde digital, l’appréhension de ses dimensions environnementale et sociétale, et l’identification de ses dérives possibles.

Être agence digitale en 2020, ce n’est plus seulement faire, c’est surtout faire grandir.

Aujourd’hui une agence digitale doit accompagner les marques pour une réelle démarche RSE intégrée : dématérialiser, mais aussi penser à la fin de vie des outils et des campagnes, aux données stockées sans raison ou aux sites qui ne sont plus visités. Se poser la question des bénéfices à long terme du remplacement de catalogues par des sites qui fonctionnent H24, pour des exploitations souvent ponctuelles. S’interroger sur les impacts et bilans carbone de ces outils, que peu considèrent aujourd’hui.

Une agence digitale, plus qu’aucune autre, doit questionner l’expérience client globale et créer des connexions utiles, fluidifier les démarches. Où est la priorité aujourd’hui : déposer 40 cookies sur son site marchand ou gérer au mieux les files d’attente ?

Une agence digitale doit accompagner la mise en oeuvre, mais surtout conseiller la stratégie de moyens. Plutôt qu’une nouvelle expérience de réalité virtuelle, n’est-il pas plus responsable d’investir dans une application de formation à la sécurité ? Et mieux servir l’engagement responsable de la marque et au final son image et ses ventes ?

Au-delà de leur expertise technique, les agences digitales doivent être des partenaires humains et responsables, et être aux premiers rangs pour construire un digital bénéfique pour tous.

David mit son casque. Après quelques secondes, le temps que l’appareil démarre, il se sentit comme transporté. Cette journée qui s’annonçait pénible au bureau ne démarrait finalement pas si mal que ça. En tournant la tête, il remarqua que le soleil faisait ce matin de très jolis reflets sur les façades vitrées des immeubles. Sur les quelques centaines de mètres qui séparaient l’arrêt de bus du siège de l’entreprise, il se surpris même à faire quelques pas chassés. Il était décidément de bonne humeur… Cet appareil avait des vertus insoupçonnées et permettaient de changer l’humeur et la perception de la journée. Une sorte de réalité… altérée. En entrant dans l’immeuble, David fit un grand sourire à la fille de l’accueil.

Cela ressemble au début d’une expérience de réalité virtuelle, telle qu’une start-up des années 2010 pourrait la présenter auprès de ses futurs clients. Sauf que cette histoire pourrait tout aussi bien avoir…40 ans ! Car, si on excepte quelques expériences psychédéliques comme le fameux Bicycle Day d’Albert Hofmann, découvreur du LSD, l’invention de la Réalité Virtuelle, ou Augmentée, technologique date de 1979. Et plus précisément de là :

https://youtu.be/xOTfzZCyCmo

L’invention du Walkman par Sony en 1979, et surtout le succès de sa commercialisation grâce à des supports audio – les fameuses cassettes inventées par Philips [1] – pratiques, fiables et surtout enregistrables, a fait énormément pour la propagation de la culture digitale et le changement de la perception des médias [2].

Pour faire court, le Walkman a permis deux choses : la création de la première bulle de média personnalisée et l’apparition d’une réalité augmentée purement technologique.

L’apparition du média personnalisé

Avant l’arrivée du Walkman, comment écoute-t-on de la musique ? A vrai dire, on l’écoute surtout chez soi. La culture populaire a retenu l’image des familles rassemblées devant la radio ou celle de la platine vinyle située près du bar et du disque qu’on écoute un verre de whisky à la main après une journée de travail stressante.

La musique n’est finalement devenue nomade qu’assez tard : le poste à transistor dans les années cinquante [3] fait sortir la radio hors-les-murs, et quelques platines 45 tours ans les années soixante permettent d’emmener ses disques favoris dans le parc, le temps d’un pique-nique avec les copains [4]. Mais si la musique se nomadise, l’écoute reste collective. La radio s’écoute entre collègue, en famille… et si on peut choisir la galette de l’après-midi, c’est toute la bande qui profite du dernier Richard Anthony.

Avec le Walkman, ce qui change c’est l’individualisation de l’écoute. Ce casque aux mousses orange permet à deux personnes proches physiquement d’écouter deux musiques totalement différentes : chaque expérience musicale devient unique puisque vécue par un individu seul, et surtout isolé.

Le Walkman ne permet plus le partage de la musique et de l’expérience sonore et coupe, également, les échanges sociaux.

Est-ce que cela ne vous rappelle rien ? Les habitudes prises avec le Walkman sont extrêmement proches de celles vécues aujourd’hui avec les smartphones. Ajoutez simplement un écran et vous verrez que chacun possède désormais sa bulle d’information en plus de sa bulle musicale et que cette bulle coupe de fait les échanges entre personne en instaurant des filtres sur les contenus. Si l’on ne lit pas la même chose, ou qu’on ne voit pas le même film, difficile d’en parler ensemble.

Résultat de recherche d'images pour "walkman guardians of the galaxy"

Sans aucun jugement, le Walkman est bien le première acte d’une personnalisation des médias, un premier clou dans le « cercueil » des médias de masse et de la consommation de groupe des contenus. Ne serait-ce que pour cela, le monde digital d’aujourd’hui lui doit beaucoup.

La première des réalités augmentées

Mais creusons plus loin. Si le Walkman est précurseur du Smartphone, il est également précurseur de l’ensemble des expériences de réalité augmentée que nous mettons en place aujourd’hui.

Vous vous souvenez de l’histoire de David ? Si sa journée a tant changé entre son réveil et son arrivée au bureau, c’est peut-être que dans ses oreilles passait Walking on Sunshine de Katrina & the Waves (oui, le morceau date de 1983, pas de 1979).

La perception que David avait de son environnement a changé par le simple ajout d’une musique…

D’ailleurs, faites l’expérience par vous-même : dans le métro, passez successivement d’un morceau triste à un morceau joyeux, par exemple d’un trio (l’opus 100) de Schubert au Love Shack des B-52’s. Continuez à observer les gens autour de vous : la perception que vous aurez de leurs actions, de l’histoire qu’ils vous évoquent, ne sera pas la même. La musique influe sur notre perception, tout cinéaste l’a compris. Elle est surtout la première des réalités augmentées.

Dans les années qui séparent l’invention du Walkman de celle de l’Oculus Go, on s’est peu penché sur le pouvoir de transformation du son. La seule mise en place concrète d’une « augmentation d’expérience » grâce au son est sans doute la création des audioguides dans les musées [5]. En fournissant une couche d’explication sonore, ceux-ci transforment une simple contemplation en une expérience éducative. Encore une fois, une réalité augmentée.
Quelques initiatives existent aujourd’hui, permettant soit d’atténuer le son extérieur [6], soit de commenter notre environnement [7]. Mais depuis le début des années 2010, les expérimentations en la matière ne semblent concerner que l’image. Facebook, Google, Apple ou encore Microsoft… tous se concentrent avant tout sur des lunettes permettant de nous emmener dans un univers parallèle ou de déformer notre quotidien. Peu se penchent encore sur le son.

Reconstruire un monde sonore

Pourtant, le son n’a jamais été autant à la mode qu’aujourd’hui : les Podcasts battent des records d’audience [8] et nos habitudes de mobilité (voiture, vélo, marche) ou nos activités physiques laissent nos oreilles libres si elles occupent nos mains. Et nos smartphones, que nous dégainons plus de 150 fois par jour, ne sont-ils pas conçus pour véhiculer avant tout de la voix et du son ?

Musique, textes, Histoire et histoires, il y a beaucoup à imaginer autour de la réalité augmentée sonore. Et si le sujet n’intéresse pas spécialement les GAFA, de nombreux projets pourraient demain changer votre quotidien avec quelques mots ou quelques notes de musique. Il n’y a finalement qu’à imaginer les dispositifs… et profiter de l’héritage fabuleux que nous a laissé le Walkman.

Demain, tous masqués ?

Le New York Time annonçait il y a quelques semaines qu’il permettait désormais aux annonceurs de diffuser de la publicité sur son site en ciblant les émotions de ses lecteurs [1]. Sans être totalement inédite, la démarche est pour le moins originale… et nous permet surtout de reposer la question du traitement des émotions sur le Net. Alors, autant en profiter !

La publicité qui répond à ce que je ressens

Oui, la démarche du New-York Times est aujourd’hui unique dans le secteur de la pub digitale.

Historiquement, les grandes régies, issues des médias ou des pure-players, jouent plutôt sur les affinités pour cibler leurs publicités. On sait par exemple qu’un lecteur du Figaro va plutôt rechercher des contenus culturels ou des services haut-de-gamme. Les annonceurs de ces secteurs auront donc une plus grande performance publicitaire en annonçant dans ce journal. C’est historiquement ce degré d’affinité entre une audience et un support qui fait tourner le business de la publicité en ligne, quasiment depuis sa création.

La démarche du New York Times ne remplace bien entendu pas ce système, mais le complète avantageusement. Une marque de sport pourra ainsi apparaître sur des articles jugés « dynamiques » par les lecteurs, ou une librairie pourra annoncer sur des contenus qui « font réfléchir ». Le New York Times a retenu au final 18 critères, 18 émotions pour qualifier ses contenus et assurer un bon ciblage publicitaire. Autant de choix possibles pour les annonceurs qui voudraient insister sur les qualités intrinsèques de leurs marques.

Le Net, territoire d’émotions

Mais traquer les émotions sur le Net, ce n’est pas réellement nouveau. Internet, puisqu’il permet depuis longtemps à tous de s’exprimer, est un territoire d’émotions. En 2005, Lycos Europe lançait Jubiiblog [2], une plateforme de blog sur laquelle chacun pouvait contribuer et surtout tagguer son état d’esprit au moment de la publication de ses billets. Une plateforme qui ne résistera malheureusement pas à la fin du portail en 2008.

En fait, depuis l’ouverture du Net aux contributions individuelles – des pages persos aux blogs ou des vidéos [3] aux tweets, chaque contenu véhicule et suscite une émotion : positive ou négative, timide ou franche, partagée ou non… Le vrai défi émotionnel du Net n’a jamais été de susciter des émotions, mais plutôt de comprendre celles-ci et de savoir comment les exploiter. D’où une pléthore d’outils sémantiques apparus au cours de ces dix dernières années, et aujourd’hui boostés par l’intelligence artificielle, voulant analyser chaque message envoyé [4] aux marques pour savoir si les foules de consommateurs sont satisfaites du service rendu ou non.

En 2016, Facebook déployait une palette de réactions possibles [5] allant de l’éclat de rire à la colère, en complément de son bouton Like historique. LinkedIn a fait de même en 2019 [6] avec des boutons de réaction allant eux de l’applaudissement au questionnement. Un autre moyen de traquer l’engagement, et surtout la réaction suscitée par les contenus, sur les réseaux sociaux.

On se souviendra également, pour l’anecdote, que le changement du bouton Favori de Twitter en un bouton Like en forme de coeur avait suscité de nombreuses réactions [7]. Passer d’un marquage purement factuel à l’expression d’une émotion n’est pas « neutre », loin de là, pour l’internaute.

Emotions, manipulation

Mais que deviennent nos émotions, une fois digérées par les réseaux sociaux ? A l’instar de nos achats sur Amazon, toutes les actions sur les espaces digitaux servent aujourd’hui à alimenter des algorithmes optimisant notre consommation. Mais si sur Amazon, elles servent uniquement à pousser des recommandations de produits [8], sur Facebook, ils servent à diffuser du contenu ciblé et personnalisé.

Les « émotions », telles que les entend Facebook, ne sont bien entendu qu’une partie des données analysées par le réseau. S’y ajoutent le temps passé sur les contenus, le temps passé sur les vidéos, les commentaires que nous laissons et les profils des personnes et des marques nous ayant fait découvrir ces contenus. Cet algorithme complexe, mais légitime dans le modèle économique du réseau, dépend avant tout de notre temps passé en ligne.

De fait, l’exploitation de nos émotions sert à nous hameçonner, à nous faire passer plus de temps sur les réseaux sociaux, et par effet de bord à nous faire interagir et consommer plus de publicité. L’analyse des émotions est aujourd’hui une composante essentielle de ce qu’on appelle les Dark Patterns [9] : l’ensemble des pratiques UX qui nous poussent à consommer d’avantages.

C’est également un carburant indispensable aux stratégies publicitaires. Facebook promet aux marques de toucher les internautes qui « aiment » – comprendre par là, qui interagissent et qui consomment – certains types de contenu. C’est souvent inoffensif quand cela vous pousse simplement à regarder une nouvelle vidéo de jardinage ou de bricolage. Cela pose plus de questions quand les contenus ainsi poussés touchent à la sphères politiques et permettent d’influer sur le résultat d’élections [10].

Sur ton visage

Mais jusqu’à présent, n’étaient exploitables que les émotions que l’on voulait bien montrer. Le modèle économique de Facebook, ou le moteur de recommandation de Netflix, sont basés sur nos réactions volontaires : Like, Follow, temps passé… Libre à nous d’envisager une « grève du Like » si l’on veut que les réseaux sociaux cessent d’exploiter nos goûts.

Mais demain ? Les avancées technologiques promettent un avenir un peu plus inquiétant, notamment du fait du déploiement massif de la 5G en Chine et dans les pays occidentaux, et de sa combinaison possible avec les algorithmes de reconnaissance faciale [11]. Car si on évoque parfois l’identification des individus dangereux par le biais de caméras [12], on oublie souvent la capacité des algorithmes à aller plus loin que la reconnaissance d’un visage.

De nombreux tests ont déjà été effectués par le passé, visant à reconnaître les émotions sur un visage : joie, tristesse, angoisse [13]… On se souviendra tout particulièrement de cette analyse en direct des réactions de Mark Zuckerberg [14] lors de son audition par le sénat américain dans le cadre de l’affaire Cambridge Analytica – justement. Quid d’une reconnaissance faciale qui deviendrait, ne serait-ce qu’un temps, un détecteur de mensonge [15] et permettrait d’incriminer, ou de plaider à charge, devant les tribunaux ?

On nage en pleine science-fiction ? Peut-être… pour l’instant. Ce type d’exploitation de la reconnaissance des émotions dépendra quoi qu’il arrive de l’utilisation qui sera faite de la reconnaissance faciale dans l’espace public. Et là, deux écoles s’affrontent : San Francisco qui a décidé de bannir les algorithmes de reconnaissance de son espace public [16], et le Royaume-Uni qui lors des tests opérés par la police verbalise les passants ne souhaitant pas montrer leurs visages [17].

Emotions cachées

Reste une dernière option : prendre – enfin – conscience que les émotions telles qu’elles existent dans les espaces numériques, sont un biais. Ou en tout cas une matière bien trop complexe à gérer. La question se pose du côté d’Instagram cette fois.

Conscient des travers de son modèle d’influence, notamment sur les secteurs de la mode et des cosmétiques, Instagram ne peut décemment plus proposer à ses annonceurs un monde où la qualité des contenus se mesure au taux d’interaction. Simplement parce qu’il est trop facile de truquer ces interactions [18]… Le réseau envisage donc de ne plus faire apparaître les Likes sur ses contenus [19], histoire de ne plus tromper personne et de ne pas transformer son usage en une espèce de course à l’échalote. Ce qu’il est déjà, ne nous leurrons pas.

Et si les réseaux eux-mêmes ne peuvent se réguler, peut-être devrons-nous apprendre à masquer nous-mêmes nos émotions, soit en utilisant des lunettes empêchant toute reconnaissance faciale [20], soit en sortant masqués pour éviter caméras et algorithmes. Et ça, la science-fiction l’a déjà envisagé [21].