#RIP Flash (1996 - 2020)

Macromedia, pardon, Adobe Flash, a donc quitté la scène digitale en ce tout début d’année 2021 [1]. Un peu dans l’indifférence générale.

Il faut dire que depuis la sortie du premier iPhone en 2007 et de son non-support des sites développés en Flash, cette plateforme de création avait cessé de séduire le grand public. Flash n’a jamais franchi la révolution mobile et continuait à vivoter depuis 10 ans sur certaines interfaces professionnelles et de rares sites potaches, supplanté par le HTML 5.0 et les possibilités devenues quasi-infinies des feuilles de style. Aussi Flash était comme ces acteurs centenaires dont la nouvelle du décès surprend [2]. On ignorait finalement qu’il était encore vivant…

Pourtant, il y a bien un avant- et un après-Flash à l’échelle du Net. Et la révolution que le logiciel signé Macromedia/Adobe aura portée peine à trouver sa succession dans un Net d’aujourd’hui peuplé de réseaux sociaux.

La révolution Flash

Pour ceux qui n’ont pas connu l’ère des dinosaures, il est peut-être bon de revenir sur la révolution qu’a été Flash dans l’expérience utilisateur du Net. Le Web des origines, celui de la fin des années 1990, est avant tout un univers textuel. Et si les premières normes HTML autorisent bien entendu l’intégration d’images, il est bon de se rappeler – avec une petite larme de nostalgie – que la logique d’organisation des contenus et des formes tire alors sa logique des machines à écrire plus que des toiles de maître ou de la télévision. On écrit, on trace des tableaux, on inclut des images pour illustration et avec un peu de pratique, on embellit tout cela avec quelques feuilles de style. L’interactivité du Web 1.0, ce sont avant tout des liens qui mènent d’une page à l’autre, et parfois provoquent quelques réactions sur les écrans cathodiques. Merci le Javascript balbutiant.

L’arrivée de Macromedia Flash dès 1996, et surtout son développement poussé à partir de 1999, va ouvrir de nouveaux horizons au développement Web. La logique de présentation de Flash ne vient pas du Web, elle vient du monde des CD-Rom, éducatifs et encyclopédiques. Un monde dans lequel on ne réfléchit pas en page, mais en écran. Un monde où le graphisme est roi, où l’information se fait volontiers visuelle et où l’interactivité va jusqu’au développement de routines de jeux simples. Le grand frère de Flash, c’est Macromedia Director [3], logiciel incontournable de bon nombre de studios multimédias dans années 1990, grâce auquel vous – les plus anciens – aurez pu découvrir Le Louvre [4], les grandes batailles de l’histoire ou les mystères du Machu Picchu.

Avec Flash, le Net s’affranchit de sa logique linéaire. Les images s’affichent en grand écran, les formes se manipulent aisément, l’interactivité devient reine. Avec Flash, le Net devient une réelle expérience multimédia. Bien avant YouTube, les dessins-animés et les cartoons envahissent la toile – souvenez-vous des Badgers [5], de Leak Song [6] ou des Vikings Kittens [7]. Le Net devient un espace de jeu – Yeti Sports, parodie cruelle des jeux olympiques d’hiver, resuscitée depuis sous d’autres formats [8].

Pour les développeurs aussi, Flash change la mise. Le Net sort de la secte des codeurs-intégrateurs et s’ouvre aux graphistes et aux animateurs. Une toute nouvelle caste de travailleurs du numérique qui vont donner aux Web une patte graphique qu’il n’aurait pu avoir sans eux. On a peut-être du mal à se le rappeler aujourd’hui, mais Flash contribue, du moins en partie, à faire du Web un média à part entière. Oui, rien que ça.

Où sont les interfaces d’antan ?

Mais les révolutions n’ont qu’un temps. Flash, émancipateur de la narration et de l’interactivité du Net, n’a pas résisté à la déferlante du mobile. Moitié par lourdeur – oui, les plug-ins Flash était lents et exaspérant, mais ils en valaient la peine ! – moitié pour des questions de sécurité – oui, Flash avait quelques failles, et les hackers n’hésitaient parfois pas copier son fonctionnement pour pirater les PC des internautes – et moitié pour des raisons politiques.

Adobe Flash, l’éditeur de logiciels Adobe ayant racheté la maison Macromedia en 2005, a donc tué Flash le 31 décembre dernier. Et le 12 janvier 2021, l’ensemble des navigateurs du marché – Chrome, Firefox et Safari en tête – ont cessé de supporter les anciennes versions du système, reléguant un pan entier de l’histoire du Net dans l’oubli [9]. Bien entendu, de nombreux frameworks de développement, mêlant différentes technologies, permettent aujourd’hui de créer des interfaces Web dignes du Web d’antan, et même des interfaces plus rapides, plus stables et plus standardisées. Mais le goût de l’innovation et du bizarre qui accompagnait l’extension d’Adobe semble avoir disparu des écrans.

Les réseaux sociaux ont démocratisé le scroll, rendant le balayage du pouce la quasi-seule interface disponible sur les écrans de mobile. D’Instagram à Twitter, de Facebook à LinkedIn, on scrolle à l’infini [10]… et si le format stories a un temps chamboulé les lignes éditoriales, sa copie d’une plateforme à l’autre (Instagram ,puis Facebook, LinkedIn et Twitter, encore [11]) fait que l’on scrolle encore. Le mouvement vertical s’est seulement mué en un mouvement horizontal.

Et sur les écrans d’ordinateur, la domination de WordPress et d’autres CMS – qui a dit PrestaShop ? qui a dit Wix ? qui a dit Drupal ? [12]a fait émerger des interfaces graphiques standardisées, suivant les bonnes pratiques de l’UX et de la performance digitale.

Si l’on voulait être caricatural, on oserait clamer que la dernière innovation des interfaces Web est le swipe [13], cette façon d’accepter ou de refuser un contact adoptée par Tinder en 2012 – huit ans déjà – et adoptée depuis jusque dans les sites médias [14]. Sortie de là, la créativité semble avoir déserté les écrans.

Créativité, où es-tu ?

Et pourtant, le Net d’aujourd’hui permet, plus que jamais, de se risquer au développement d’interface riches et complexes, parfois les seules capables de réellement nous présenter un sujet dans sa complexité, justement. Ces expérimentations existent, mais elles semblent rarement toucher le grand public.

Ainsi, le Lab du New York Times développe depuis quelques années un réel savoir faire en termes d’interfaces innovantes et de webdocumentaires. L’exemple le plus flagrant, et le plus grand public, est sans doute l’analyse complète publiée à l’été 2020 sur l’explosion du port de Beyrouth [15]. Sur une seule page, le quotidien américain utilise des techniques aussi diverses que le découpage vidéo, le timelapse et l’infographie 3D pour faire comprendre les causes et les conséquences d’un évènement au retentissement majeur. Un mix média que n’auraient pas renié les développeurs Flash des années 2000. Le New-York Times est d’ailleurs pionnier dans la représentation infographique et n’hésite pas à décortiquer sa logique de présentation de l’information sur un site dédié [16] . Photos, vidéos, et même réalité virtuelle y ont la part belle, dans ce qu’on aimerait être un des prototypes du Web de demain.

En France, les interfaces conçues par l’Atelier, cellule de veille et d’innovation de BNP Paribas [17], font elles aussi figure d’exemple. Ici, forme et fond se mêlent pour projeter l’internaute dans une thématique et lui faire comprendre ce qu’est réellement l’économie virtuelle [18], ou quels sont les enjeux technologiques de demain [19]. Comme chez le New-York Times, on admirera la maîtrise du propos et l’adéquation souvent parfaite de la forme avec celui-ci. Un travail qui témoigne sans doute d’une réelle cyberculture, une inventivité et une créativité qui puise ses racines dans celles du monde numérique, cybernétique et science-fiction en tête.

Ces exemples montrent en tout cas, que Flash mort, on peut encore espérer un Web créatif et multimédia.

Remettre l’innovation au cœur du Web

Alors que certains nous proposent – très sérieusement – un avenir digital dans lequel la réalité virtuelle et les interfaces vocales auront disrupté les écrans d’ordinateur, et à l’heure où, Covid-19 oblige, le Net et ses interfaces prennent une part toujours plus importante dans nos vies, peut-être est-il temps de remettre un peu de la créativité de Flash dans nos pages Web.

Pour surprendre, donner envie de consulter d’autres contenus que les sempiternels fils des réseaux sociaux et nous faire découvrir l’information autrement.

Et si on remettait l’innovation au cœur des interfaces, pour un Web plus enthousiasmant ?

Digital Sunrise, 2021, l'année du numérique positif

Traditionnellement, le mois de janvier est à la fois celui des bilans et des résolutions. Le bilan des mois écoulés et de ce qu’ils ont apporté comme tendances et comme espoirs ; les résolutions pour l’année à venir et la liste des actions à mener pour bâtir – on le souhaite – un avenir meilleur.

2020, année hystérique

Du côté des bilans, on ne va pas revenir sur l’année de la Covid-19. L’épidémie qui a touché le monde a changé les habitudes, imbriqué plus que jamais la sphère privée et l’environnement professionnel, poussé à outrance la digitalisation des entreprises, fait de nous des adeptes du click & collect et des apéro-zoom. Contexte oblige, 2020 a été l’année de l’hystérie numérique. Nous n’avons jamais passé autant de temps sur Netflix, envoyé autant de messages, partagé autant notre image, diffusé autant de données. Nos sociétés occidentales n’ont jamais été aussi connectées, dépendantes des smartphones, des écrans et des Data. Et les images qui nous viennent des expérimentations chinoise annoncent clairement que la route de la numérisation n’a pas fini d’être tracée.

Il y a du bon et du moins bon dans cette digitalisation galopante. Les outils numériques ont permis de garder le contact pendant les périodes d’isolement, en famille ou entre collègues. Ils ont permis d’assurer une activité, et donc des revenus, à certaines catégories professionnelles. Ils ont également montré leur importance croissante dans la dénonciation des injustices et la mobilisation des espoirs. On n’oubliera pas qu’après les #MeToo de 2019, l’année 2020 a été l’année de #BlackLivesMatter, un mouvement dont l’ampleur et la mobilisation n’auraient pas été possible sans les outils numériques, les caméras, les réseaux sociaux et leur capacité d’amplification [1]. Mais un mouvement dont il reste encore à trouver un aboutissement concret.

Parce que 2020 aura également été une année sombre pour les outils digitaux. L’emprise des réseaux sociaux – Facebook en tête – augmente, et les tentatives de régulation de ce Léviathan du contenu et de la publicité n’aboutissent toujours pas, laissant la voie libre aux extrémismes et à la manipulation. L’instantanéité de ces mêmes réseaux a continué à modeler notre paysage médiatique, laissant parfois de côté la raison et la prise de recul nécessaires à la vie dans une société harmonieuse. Les discours emprunts de solutionnisme technologique restent d’actualité – y compris dans la sphère politique [2] – malgré les échecs des modèles de Smartcity à Toronto ou à Songdo. Et enfin, l’empreinte écologique des outils numériques est en 2020 plus importante que jamais, alors que l’urgence climatique se fait de plus en plus pressante.

Comme toutes les années d’hystérie, 2020 nous aura fait naviguer entre crises et espoirs de mois en mois en laissant finalement un bilan complexe : nous ne reviendrons jamais en arrière sur cette société digitale, elle nous accompagnera encore longtemps, mais il devient urgent pour chacun de prendre conscience de ses dérives et de trouver – chacun à sa mesure – le moyen de lutter contre elles.

2021, année responsable

Pour autant, l’année 2021 ne démarre peut-être pas sous de si mauvais signes. Dans le flot d’actualité de ces dernières semaines, occupé en grande partie par la pandémie et l’actualité politique américaine, on voit poindre les premiers discours, les premières actions de lutte contre l’hystérie ambiante.

Elles sont juridiques et politiques. En décembre, 46 états américains ont déposé une plainte contre Facebook pour position monopolistique [3]. La commission européenne semble vouloir durcir le ton face aux politiques fiscales des GAFA [4]. Les travailleurs de Google ont, en ce début d’année, fondé le premier syndicat de l’histoire de l’entreprise [5]. Et enfin, Facebook et Twitter ont, pour la première fois en quatre ans, suspendu les comptes de Donald Trump à la suite des évènements du Capitole américain du 6 janvier.

Des signes qui permettent d’imaginer une année numérique 2021 responsable. Responsable quant à l’impact du numérique sur nos vies quotidiennes, nos opinions et nos relations avec les autres. Responsable quant à la place qu’occupent ces outils dans nos vies. Mais une année responsable uniquement si chacun des professionnels – de plus en plus nombreux – qui opèrent au quotidien dans les sphères digitales agit également pour un numérique positif.

5 principes pour un numérique positif

Pourquoi parler de cela quand on est une agence de design digital ? Aujourd’hui, être partie prenante de l’écosystème numérique, c’est être au choix une composante de l’hystérie ou un apporteur de solutions. Chaque agence, chaque acteur digital devra en 2021 choisir les actions qu’elle entend mener pour ce monde numérique positif que nous souhaitons tous.

Pleinement conscients de notre impact sur la société et le monde qui nous entoure, par le biais de nos développements d’outils digitaux, nous nous engageons chez Plan.Net à respecter 5 principes d’un numérique positif :

  1. Se poser la question non plus des utilisateurs – ces personas parfois désincarnés qui ont envahi les méthodologies – mais des humains qui sont exposés et impactés, parfois indirectement, par les outils que nous concevons.
  2. Interroger l’impact écologique de nos actions et de nos architectures, et réduire celui-ci dès que cela est possible.
  3. Imaginer un monde numérique ouvert, accessible et interopérable, qui prend en compte les particularités d’usage de chacun et qui laisse une place aux outils libres ainsi qu’aux alternatives déconnectées pour ceux qui le souhaitent.
  4. Cesser de penser que le digital est LA solution à chacun des problèmes et savoir revenir en arrière, proposer des outils parfois plus simples et moins impactant quand ceux-ci sont suffisants.
  5. Ne jamais s’arrêter de penser positivement les outils numériques – dans la lignée de la volonté de diffusion et de construction de communs des pionniers du Web – tout en gardant conscience des limites et des effets néfastes de ceux-ci

En 2021, nous pouvons ainsi continuer d’être fiers de travailler dans une agence numérique et apporter notre pierre – modeste – à la construction d’un monde digital plus juste, inclusif et réellement utile.

C’est ça, être une agence numérique positive.

Dans une année 2020 riche en évènements et en rebondissements, une question se fait de plus en plus saillante : celle de la construction d’un « Numérique positif ».

Alors que la place des outils digitaux – du smartphone aux réseaux sociaux – ne se pose plus, celle de leur impact et de la façon d’en tirer le meilleur se fait de plus en plus urgente. Face aux manipulations, aux théories conspirationnistes, aux harcèlements et à l’impact écologique, quelle est la responsabilité et les actions possibles des acteurs du numérique ? Comme imaginer et bâtir ce meilleur ?

La réflexion qui suit se base sur de nombreuses lectures faites cette année, dont particulièrement : Ruined by Design de Mike Monteiro (2019) et Le Design des choses à l’heure du numérique de Jean-Louis Fréchin (2019). Décryptage.

Parler de Design ou d’UX ?

Mais avant de s’attaquer au fond du problème, une petite précision de vocabulaire… Si Mike Monteiro et Jean-Louis Fréchin abordent tous les deux le sujet de la responsabilité du Design dans la société et l’avenir de la planète, ils ne donnent pas le même sens à ce mot, différence de culture oblige. Jean-Louis Fréchin le rappelle d’ailleurs très bien dans l’ouverture du Design des Choses : l’origine du mot Design est complexe, et son sens a été filtré par bien des biais et des cultures. D’abord Italien, puis Français et Anglais aux XVIIIe et XIXe siècles, Allemand à l’aube du XXe siècle et Américain dans sa seconde moitié, le terme regroupe une foule d’imaginaire.

Dans Le Design des Choses, on parle de Design au sens européen, de la pratique issue à la fois de l’art et de l’architecture, qui vise à imaginer et concevoir des produits ambitieux, portant non seulement un usage, mais aussi une vision de société.

Dans Ruined by Design, Mike Monteiro lui aborde le Design sous son aspect américain issu des Trente Glorieuses et de la société de consommation née pendant la guerre froide. Un Design apporteur de solutions, répondant à un problème posé, et favorisant avant tout l’attractivité des produits et donc la consommation. Un Design qui trouve son expression la plus protocolaire dans les méthodologies UX qui fleurissent au sein des entreprises.

Un Design qui imagine d’un côté, un Design qui répond de l’autre. Des visions pas forcément opposées, mais qui, logiquement, apportent des réponses différentes à la problématique de la responsabilité sociétale et écologique du numérique.

Celui qui dit non

Ruined by Design, Mike Monteiro, auto-édition.
Ruined by Design, Mike Monteiro, auto-édition.

Commençons par Mike Monteiro. Dans Ruined by Design, il partage un long article de blog de 200 pages. Un texte à charge contre les GAFA – Facebook et Twitter en tête – et contre les usages abusifs du numérique aujourd’hui. Et ces charges sont lourdes : on pense d’abord à la responsabilité politique des plateformes sociales, notamment lors de l’élection de Donald Trump ou du referendum anglais sur le Brexit. Mais On parle également du refus de filtrer certains propos sur les plateformes sociales, de l’ensemble des biais qui existent aujourd’hui dans les algorithmes et aussi de l’impact environnemental de la consommation numérique.

Derrière ces filtres, ces biais, ces plateformes, il y a des designers – au sens américains – qui dessinent des réponses à des problématiques données. Ces problématiques étant le plus souvent « Comment gagner plus d’audience ? » ou « Comment gagner plus d’argent ? ». Aujourd’hui, un UX designer éthique peut-il encore, honnêtement, supporter et contribuer à ces plateformes ? Pour Mike Monteiro, la réponse est claire : c’est NON.

Mike Monteiro définit le rôle du designer comme celui d’une vigie, d’un gardien. Le designer est celui qui doit refuser les projets dont l’impact est négatif – pour la société, pour les individus, pour la planète – dénoncer ceux-ci et les rendre impossibles. La force du designer est sa capacité à refuser d’apporter les solutions quand la question posée n’est pas éthique, juste, honnête.

Celui qui imagine

Le design des choses à l'heure du numérique, Jean Louis Fréchin chez FYP.
Le Design des choses à l’heure du numérique – Jean Louis Fréchin, FYP.

Mais est-ce qu’aujourd’hui, dire non est encore suffisant ? Mike Monteiro milite pour la prise de conscience globale d’une industrie face à ses responsabilités et appellent à quitter, boycotter, ces géants menaçant la société humaine. Même si chaque goutte d’eau compte, c’est oublier aussi un peu vite qu’il y aura toujours quelqu’un pour endosser ce mauvais rôle. La logique du « NON » a ses limites, c’est les « OUI » des autres.

Dans Le Design des Choses, Jean-Louis Fréchin repose la question du rôle et de l’ambition des designers dans leur définition historique issue de la Renaissance italienne. En résumé, au risque d’être caricatural, le designer européen n’est pas là pour apporter des solutions, mais pour imaginer des possibles. À la différence de son homologue américain présenté par Mike Monteiro, il ne répond pas à des questions imposées, à un cahier des charges mais crée des systèmes entiers, dans leurs dimensions à la fois pratique, artistique mais également sociale et désormais environnementale.

Le designer de Jean-Louis Fréchin est un imagineur qui doit non seulement apporter des solutions pratiques, mais également imaginer, définir l’avenir vers lequel il veut tendre. Une approche qui demande des compétences complexes, un mélange de sensibilité et de capacité à produire, un croisement des héritages de l’art et de l’artisanat. Bref, un retour aux sources du Design européen.

Rien ne se gagnera seul

Mais face à l’urgence qu’il y a à bâtir à nouveau un Numérique positif, combinant à la fois les idéaux peut-être un peu naïfs des débuts et les aspects pragmatiques de la sphère économique digitale, y’a-t-il réellement opposition entre le Designer-qui dit-non et le Designer-qui-imagine ?

Aucun combat, surtout les plus complexes, ne se gagne sur un seul front. Et si l’on veut demain s’opposer à certains des modèles portés par les GAFA et dénoncés presque unilatéralement aujourd’hui, il faudra à la fois avoir le courage de refuser – d’utiliser et de concevoir – certaines solutions et l’imagination d’en créer de nouvelles. Combiner engagement et création, pragmatisme et idéal.

Notre rôle à nous, acteurs du numérique, est désormais d’assumer les deux combats. Il nous faut refuser, dans un souci d’éthique, les solutions qui nuisent aux individus, à la société, la planète et pointer du doigt ces dérives dès qu’elles se présentent, dans un brainstorming, un atelier, une co-construction. Cela nous impose de penser plus loin les impacts de nos projets, de nous interroger sur la consommation carbone d’un bouton vert ou de l’emprise mentale des applications que nous concevons. Et de passer tous nos chantiers à ce filtre. Éprouvant, mais nécessaire.

Mais notre rôle est également de lever le nez de nos claviers pour voir plus loin que chaque projet individuel pour imaginer de nouveaux usages, de nouveaux objets, de nouveaux langages du design qui génèrent à la fois un imaginaire, un nouvel enthousiasme et de l’appropriation. Il est temps de sortir le nez des seuls indicateurs de performance pour voir plus grand. Notre monde le mérite.

De quelque côté du Design que vous vous sentiez, dîtes-vous que pour un digital plus responsable demain, on aura besoin de tout le monde !

L’actualité technologique de l’été qui s’achève met, encore, à l’honneur les avancées et les inquiétudes qui entourent l’intelligence artificielle. On y parle en vrac de jeux vidéo et de voitures autonomes. Mais on y voit surtout l’occasion de rappeler une fois de plus que sans DATA, l’intelligence artificielle n’est finalement pas grand-chose.

Quand les immeubles sortent de terre…

D’abord, Microsoft Flight Simulator [1]. Le légendaire simulateur de vol est revenu cette année dans une nouvelle édition après quelques années d’absence. Et cette version permet de survoler l’intégralité du globe terrestre aux commandes de l’avion de votre choix. Pour arriver à cette prouesse – la modélisation de la Terre entière – Microsoft s’est basé sur les données géographiques disponibles dans l’Open Street Map Project [2] – un projet cartographique collaboratif mondial qui concurrence ouvertement les applications de Google et d’Apple.

Cette utilisation d’une base collaborative et open-data a permis aux développeurs du jeu de générer rapidement et à moindre coût l’ensemble des décors qui leur étaient nécessaires. Avec toutefois quelques surprises. Ainsi, les joueurs survolant Melbourne, en Australie, ont eu la surprise de découvrir dans les faubourgs de la ville une tour de plusieurs centaines de mètres de hauteur, là où n’existent dans la réalité que de bien classiques pavillons de banlieue [3]. La faute à… une faute de frappe. L’un des contributeurs d’Open Street Map aura, peu de temps avant la récupération des données par Microsoft, complété les données de ce quartier de Melbourne et indiqué que l’un des bâtiments comporte 212 étages au lieu de… deux.

Une simple erreur, certes, mais une erreur qui n’a pas été détectée par l’intelligence artificielle chargée de créer l’ensemble des décors du jeu. D’ailleurs, l’utilisation de celle-ci a également fait l’objet de critique de la part de nombre de joueurs. En effet, pour l’IA de Microsoft, un bâtiment est un bâtiment comme un autre, et un pont et un pont comme un autre, quels que soient son importance et son aspect patrimonial. Ainsi, le Palais de Buckingham à Londres s’est vu doté du même look qu’un immeuble de bureau quelconque [4], et le pont du port de Sydney a perdu ses célèbres arches [5]. Des maladresses qui seront corrigées prochainement par les concepteurs du jeu, mais qui montrent bien les limites d’une IA dans la reproduction de la diversité terrestre.

… et que les voitures freinent toutes seules

Plus inquiétante est l’expérience menée par des scientifiques israéliens au cours du mois d’août. A l’aide d’un drone équipé d’un projecteur, ceux-ci ont réussi à tromper les capteurs d’une voiture autonome de type Tesla [6]. En projetant l’image d’un piéton ou d’une autre voiture, ils ont ainsi provoqué un freinage d’urgence de la part du véhicule. Mais plus grave, en projetant des lignes au sol, ils ont réussi à faire dévier la Tesla – alors en mode autonome – de sa trajectoire initiale. On peut imaginer à partir de cette expérience tout type de manipulation de l’intelligence artificielle qui conduit le véhicule : de nouveaux panneaux, des limitations de vitesse fantaisiste et pourquoi le « masquage » de certains éléments réels de l’environnement.

Tromper les capteurs d’une voiture autonome n’est pas une idée nouvelle. Un artiste anglais, James Bridle, avait déjà imaginé en 2017 un Car Trap [7], un cercle qui prendrait au piège les véhicules autonomes et les empêcherait de s’échapper. Une vue d’artiste qui révèle les lacunes du système.

Une IA, ça ne doute pas

Ces deux expériences ne sont que des extraits de l’actualité qui a entouré l’IA au cours des derniers mois. Elles ne reflètent pas, par exemple, les progrès enregistrés par les chercheurs dans les domaines médicaux grâce aux programmes d’intelligence artificielle. Mais, sans invalider la notion même d’IA, elles nous font nous poser quelques questions cruciales pour la maîtrise de cette technologie qui semble appeler à dominer nos vies.

Qu’est-ce qui fait, pour une intelligence artificielle, la véracité d’une donnée ? Le moteur de rendu de Microsoft Flight Simulator ne s’est pas posé la moindre question avant de représenter une tour de 212 étages au milieu des faubourgs de Melbourne. Pas plus que l’intelligence artificielle de la Tesla quand elle a vu apparaître une silhouette humaine face à elle. Les intelligences artificielles, tout comme les algorithmes simples, ne sont pas conçus aujourd’hui pour s’assurer de la véracité, et encore de moins de la réalité, d’une donnée. Ils sont conçus pour traiter des données en entrée et en déduire le comportement le plus adapté : quelle texture appliquer à un immeuble, dans quelle direction aller, etc.

Que se passe-t-il donc quand la donnée qui leur est fournie est fausse ? Volontairement ou non. Quand une erreur s’est glissée dans un fichier ? Quand une manipulation a été faite avec une intention peu louable ? Ou simplement lorsqu’une information est manquante et que la Data ne permet pas une prise de connaissance complète de l’environnement ?

Et l’état, les intelligences artificielles dont on parle régulièrement ne détectent bien souvent pas ces erreurs ou ces manipulations – sauf si elles sont conçus spécifiquement pour cela comme celles qui traquent au quotidien les deepfakes [8] – même si elles mènent à des aberrations. Une IA, par définition, ne doute pas. Il est donc crucial, à mesure que les algorithmes prennent de la place dans notre quotidien, de savoir qui maîtrise la réalité et de s’assurer – faute d’instiller du doute chez les robots – de la fiabilité de toutes les informations utilisées par nos futurs systèmes.

La leçon vaut pour tout système qui entend traiter automatiquement de l’information. A l’heure où il n’a jamais été aussi facile de créer du contenu – qu’il s’agisse de faux profils sur les réseaux sociaux [9] ou de faux articles dans les revues scientifiques [10] – et parfois d’articles créés à l’aide d’une intelligence artificielle [11] – il convient d’être de plus en plus prudent avant d’affecter un traitement à une données. La vérification des données, mais également leur certification, doit devenir un point crucial de la politique numérique des entreprises. A défaut, aucun déploiement d’intelligence artificielle ne pourra se faire sans danger.

Alors, si vous ne voulez pas rater la révolution de l’IA, commencer par maîtriser celle de la DATA.

Le mois dernier, j’ai tué deux sites internet.

Deux blogs, dédiés au marketing et aux nouvelles technologies. Plus de 500 articles si ma mémoire ne me trompe pas. Plus de 5 années d’écriture sur les évolutions de nos métiers. Quelques giga-octets d’images et de base de données qui, il faut bien l’avouer, n’intéressaient plus réellement les foules.

Deux noms de domaine qui seront récupérés rapidement, n’en doutons pas, par quelques mineurs d’audience et chasseurs de liens.

Le mois dernier, j’ai tué deux sites Web.

Et c’est l’occasion de se poser la question de l’hygiène du Web et du rôle de notre environnement préféré dans la sauvegarde du savoir humain, mais aussi dans la sauvegarde de la planète.

CONSERVER LA MÉMOIRE DU MONDE

L’ambition de faire du Net une bibliothèque universelle ne date pas d’hier. Elle date même de bien avant son invention. Déjà, dans les premières ébauches de ce qui deviendra le Web – qu’il s’agisse du Memex [1] de Vannevar Bush dans les années 1940 ou de la volonté de mise en réseau des ordinateurs de l’ARPANET [2] – il y a cette volonté de rendre le maximum d’informations disponible à tous par l’intermédiaire des outils informatiques. C’est le Web de Tim Berners-Lee [3] en 1990 va permettre de concrétiser enfin cette ambition.

Aujourd’hui, tout se numérise, tout se sauvegarde et tout se partage, du plus noble des contenus au plus insignifiant des textes. S’il fallait lister les initiatives d’enregistrement de la connaissance humaine, un blog entier n’y suffirait pas. Dans la prolongation des travaux d’archivage initiés les siècles précédents, le Net donne accès aujourd’hui à une grande partie de la connaissance humaine.

On y trouve des textes, bien entendu, allant de l’ensemble des archives déjà numérisées un peu partout dans le monde – on ne citerait que Gallica [4] pour les archives françaises –aux partages de connaissance de la Wikipédia [5]. On y trouve des images, via là encore les fonds des plus grandes bibliothèque (par exemple, la bibliothèque du Congrès américain [6]) mais également les contributions régulières des inconnus sur les plateformes de partage d’images comme Flickr ou Instagram. On y trouve de la vidéo et du son… bref, on y trouve de tout.

madelen, la plateforme de VOD de l’INA.

Le Net, on le sait, a contribué à sauver bien des contenus et à rendre accessibles à tous bien des témoignages du génie humain. Des films oubliés retrouvent une nouvelle vie grâce au site Archives.org [7]. Les collections des grands musées mondiaux sont accessibles au plus grand monde, et sans se déplacer, grâce aux initiatives de Google [8]Et le Net s’archive également lui-même, pour ne rien perdre de son histoire grâce à la désormais célèbre WayBack Machine [9].

ET PARFOIS, OUBLIER…

Bien entendu, il y a parfois des couacs. Comme les musées [10] et les bibliothèques réelles peuvent brûler, les bibliothèques digitales peuvent elles aussi disparaître, volontairement ou non.

Ceux qui comme moi ont travaillé il y a longtemps chez un hébergeur – gratuit pour ma part – se souviennent de l’angoisse à la perte d’un serveur et de l’ensemble des données qu’il pouvait contenir. On a vu ainsi, chez MultiMania, des centaines de sites Web personnels s’effacer suite au crash d’un disque dur. Et même si le parallèle avec les disparitions majeures d’archives culturelles [11] est difficile à soutenir, ces contenus sont bien une part de la mémoire collective de l’humanité.

Au cours des dernières années, le Net a procédé à bien des suppressions de contenu, volontaires ou non. Ainsi, Tumblr a supprimé de nombreux blogs et photos lors de sa session par Yahoo! en 2018, suite à un changement de ses règles de modération et au refus d’héberger des contenus jugés pornographiques [12]. Myspace, le réseau star des musiciens qui a contribué à révéler, notamment, les Arctic Monkeys, a perdu en 2019 la quasi-intégralité des enregistrements qu’il hébergeait avant 2012 [13].

Les couacs existent. La mémoire digitale comme toute mémoire est faillible.

MARIE KONDO ET LES RÉSEAUX SOCIAUX

On ne s’y trompera pas. Si elle connaît quelques couacs, l’entreprise globale de sauvegarde du savoir de l’Humanité que représente internet est salutaire.

Mais jusqu’où est-il pertinent de conserver ou de donner accès à des archives ? La capacité sans limite du monde virtuel – sans limite car non matériel – fait qu’on ne se pose plus la question du « raisonnable ». Puisque tout est enregistrable, tout doit être enregistré. Puisque tout peut être consulté, tout doit être consultable.

On arrive alors à un paradoxe : l’information ne meurt plus.

Auchan sur YouTube, 8 ans de vidéos disponibles en ligne.

On parlera bien entendu des boîtes emails [14] qui ne désemplissent plus, mais également des comptes sociaux des grandes entreprises qui conservent, ad nauseam, une trace du passé. C’est ainsi qu’une chaîne YouTube comme celle des hypermarchés Auchan [15] garde trace des recettes de cuisine postées il y a plus de 8 ans. Certes, les recettes de Cabillaud aux vapeurs d’aneth et carottes râpées [16] sont intemporelles. Mais 8 ans après ces publications, le compte Auchan a vu passé des centaines d’autres contenus… et il y a peu de chance que les algorithmes de la plateforme vidéo de Google fassent aujourd’hui remonter cette vidéo en particulier face aux centaines d’autres recettes de cabillaud vapeur [17] qui occupent l’inventaire de YouTube. Le cabillaud d’Auchan fait partie de ces archives oubliées, qui ne servent a priori plus la marque – même si les statistiques peuvent me contredire – mais qui occupent toujours de l’espace quelque part dans un data center. Une sorte de décharge oubliée.

A l’instar de ce qu’à préconiser un temps Marie Kondō [18], ne serait-il pas pertinent de ne conserver sur les réseaux sociaux des marques uniquement les 3 contenus qui procurent réellement du bonheur ?

ÉCRIRE, MAIS PAS POUR LES HUMAINS

Mais il y a plus vicieux, il y a également le contenu qui, même périmé, est conçu pour attirer. On le sait, les algorithmes des moteurs de recherche et des réseaux sociaux s’alimentent de contenu. Plus ces contenus sont nombreux, plus ils peuvent avoir de poids dans les logiques de classement et de mise en avant des sites. C’est bien entendu loin d’être le composant principal d’un bon SEO ou d’une bonne visibilité sur les réseaux sociaux, mais c’est un argument non négligeable pour bien des marques : un site à l’inventaire important apparaît mieux dans Google qu’un site ne proposant qu’une vingtaine de pages.

C’est particulièrement vrai pour les sites de e-Commerce, qui veillent donc à renforcer leur contenu et leur inventaire pour répondre aux jeux de requêtes les plus vastes possible. Ainsi, Cultura – l’enseigne française de biens culturels et de loisirs créatifs – propose sur son site de nombreux livres dont certains sont épuisés depuis longtemps. Pour exemple :

Cultura propose à la vente des livres en rupture de stocks depuis longtemps

Un ouvrage publié en 2002 [19]. Une maison d’édition disparue en 2013 [20]. Une version de logiciel produite en 2001 et une plateforme dont l’abandon a d’ailleurs été annoncé en juillet 2017 par Adobe [21]. Cet ouvrage, et beaucoup d’autres, n’a que peu de chance d’être commandé en ligne, et encore moins de chance d’être livré en boutique. Il est épuisé et passé au pilon depuis longtemps. Cultura ne proposant pas, au contraire d’Amazon, de marketplace, il ne sera pas non plus vendu d’occasion par un tiers. Quel est alors l’intérêt de proposer, dans son catalogue, de tels contenus, si ce n’est proposer aux moteurs de recherche un maximum de contenus ?

On a déjà détaillé par le passé les stratégies du Bruit [22], consistant à produire du contenu en masse afin de satisfaire les algorithmes des moteurs de recherche et des réseaux sociaux, mais il y a autre chose derrière ces quelques exemples : il y a une incapacité du Net à se réguler.

BEAUCOUP DE NEGLIGENCE

Bien entendu, tout n’est pas que mauvaise intention parmi les quelques exemples cités plus haut. Une vidéo postée il y a 8 ans sur les réseaux sociaux, on l’oublie vite. Elle se trouve rapidement poussée tout en bas de scroll par de nouveaux contenus, plus à la mode, plus performants, plus en phase avec la marque. Le travail de production de contenu à destination des plateformes sociales est déjà si chronophage qu’on hésite à accuser les pauvres Community manager de ne pas nettoyer derrière eux.

De même, les gestionnaires des bases de données – comme celles où s’indexent les publications des principales maisons d’édition – sont là avant tout pour garantir la fraicheur du catalogue, la prompte disponibilité des futurs hits de la rentrée littéraire. Difficile de trouver le temps de nettoyer les références caduques.

Il y a beaucoup de négligence : la négligence de ne pas penser aux conséquences de ses contenus – comme on ne pense pas à la consommation d’eau en se brossant les dents – et la négligence de ne pas penser des systèmes prenant en compte leur propre fin de vie.

Il y a, à bien une réfléchir, une discipline de l’UX à imaginer : l’UX de l’hygiène digitale.

Elle consisterait à concevoir, dès les premiers pas d’un produit numérique, la façon dont celui-ci cessera d’impacter son environnement. L’effacement des données, la réduction des accès aux références disparues, la gestion des historiques inutiles… une discipline qui

MAIS AUSSI UN PEU DE MALVEILLANCE

Mais la négligence n’explique pas tout. L’industrie digitale a horreur du vide, des domaines inutilisés ou des contenus caduques. L’industrie numérique ne jette rien. Ou en tout cas pas volontairement. Tous ceux qui ont, il y a dix ou vingt ans créés des sites Internet peuvent témoigner : les sites Web ne meurent pas.

L’invasion des sites zombies

Ces deux domaines qui j’ai abandonnés le mois dernier, gageons qu’ils ne sont pas restés inutilisés longtemps. Leur historique, leur ancienneté aura attiré quelques Growth Hacker ou quelques négociant indépendant de trafic. Ces deux sites vivent désormais leur vie comme, non pas des projets éditoriaux, mais des espaces digitaux destinés à draguer des liens vers d’autres sites Web, et à diffuser de la publicité vendue au clic ou à la vue. Ils aident Google à rester indéboulonnable et à nourrir un écosystème numérique qui tourne en boucle.

Les sites web morts permettent à d’autres sites web morts de ressusciter et à générer en boucle cet Internet du Bruit.

Est-ce que cela en vaut la peine ? La logique capitaliste de la publicité digitale ne se pose pas la question : le Web vu par les référenceurs et les marketeurs n’est qu’une bulle en croissance. En croissance de domaine, en croissance de page, en croissance de publicité, en croissance de revenus… et malheureusement en croissance de stockage.

L’HYGIÈNE DU NUMÉRIQUE, LA RESPONSABILITÉ DE TOUS

Les préoccupations sont nombreuses aujourd’hui autour de l’impact de l’économie numérique sur le dérèglement climatique. Les doutes eux ne sont plus permis. On le sait, l’industrie numérique dans son ensemble – loisir et professionnel, matériel et logiciel… – pollue aujourd’hui plus que le transport aérien [23]. L’impact de nos outils digitaux en France sont l’équivalent de 6,2% de la consommation d’énergie de l’hexagone et de plus de 5% de ses émissions de gaz à effet de serre [24].

Il est inconscient, voire irresponsable, de penser que nos petits sites Web et nos vidéos ne sont qu’une goutte d’eau dans la pollution globale que subit la planète. L’industrie numérique, c’est aujourd’hui une foule de professionnels qui produisent en boucle du CO² pour une meilleure visibilité sur les moteurs de recherche et des vues supplémentaires dans les réseaux sociaux.

A l’heure où des mesures [25] pour lutter contre l’impact écologique du numérique commencent à être évoquées, comme la fin des forfaits de connexion illimités [26], il serait peut-être temps que l’industrie libérale du digital prenne des mesures d’hygiène pour sa propre sauvegarde. Et sans parler de décroissance, qu’elle apprenne à tout le moins à concevoir des outils digitaux propres et à nettoyer derrière elle.

C’est devenu une habitude depuis plus de vingt ans. Google annonce régulièrement des mises à jour de son algorithme de classement des sites Web et édicte tout aussi régulièrement des recommandations quant à la façon de créer, maintenir et faire vivre les sites Web. Parfois, ces recommandations concernent le contenu, d’autres fois la technique ou la façon dont les sites Web sont liés entre eux par l’intermédiaire de liens.

Les dernières communications de Google, fin mai, suivent une tendance de fond dans les recommandations du moteur : faire de l’UX, c’est désormais aussi faire du SEO.

A la découverte des Core Web Vitals

Retour sur lannonce de fin mai. Google a rendu disponible dans sa Search Console un rapport dédié à ce qu’il appelle les Core Web Vitals, trois nouvelles données qui évaluent la vitesse de chargement d’un site et surtout la façon dont celui-ci se comporte à l’écran face aux internautes. Ces trois nouvelles données s’ajoutent à l’estimation du temps de chargement des pages (FCP, First Content Paint) qui existait déjà dans différents outils fournis par Google.

Si l’on veut résumer, et comprendre, ce que sont désormais les Signaux Web Vitaux pour Google, voici ce qu’il faudrait retenir :

  • FCP – First Content Paint : premier indicateur, il évalue le temps de chargement initial de votre page, c’est-à-dire le temps que met à apparaître à l’écran le premier élément graphique, qu’il s’agisse de texte, d’image ou de n’importe quel autre type d’élément. Avant ce premier affichage, le visiteur de votre site ne voit sur son écran de smartphone qu’une page blanche, et peut donc légitimement se demander si votre site fonctionne.
  • FID – First Input Delay : en complément, cet indicateur mesure le temps que met à apparaître le premier élément interactif de votre page, lien ou champ de formulaire. Il mesure donc, en complément, le temps d’inactivité potentiel de l’internaute. Avant cet événement, le visiteur de votre site doit se contenter de regarder l’affichage des éléments mais ne peut cliquer pour afficher un contenu plus précis ou accéder à une autre page de contenu. Autant de temps perdu si votre visiteur est décidé sur les actions qu’il veut mener.
  • LCP – Largest Contentful Paint : avec cet indicateur, Google continue son exploration du chargement des pages. Il mesure ici le temps que met à apparaître à l’écran le contenu qu’il juge le plus important sur celle-ci. Il s’agit en général d’une photo, mais cela peut également être une vidéo ou un paragraphe de texte particulièrement long. Le chargement de cet élément peut donner à l’internaute que la page est complète, ou en tout cas qu’il peut commencer à interagir sans manquer une information cruciale pour la suite de son parcours
  • CLS – Cummulative Layout Shift : dernier indicateur, il mesure la stabilité de la page. Vous l’avez tous vécu, rien n’est plus énervant que ce moment où vous vous apprêtez à cliquer sur un lien et que le bandeau d’acceptation des cookies fait brusquement bouger. Au mieux, il ne se passe rien, au pire, vous avez alors cliqué sur une bannière publicitaire. Google privilégie les pages « stables », c’est-à-dire dans lesquelles aucun élément ne change de place au cours du chargement.

On le voit bien, ces quatre indicateurs ne sont pas uniquement techniques – même s’ils dépendent énormément de l’optimisation techniques des sites Web. Ils concernent avant tout l’expérience utilisateur.

Pour vous donner une idée de l’impact de ces indicateurs sur l’expérience utilisateur, le rapport PageSpeed Insights évolue d’ailleurs et présente désormais un aperçu visuel du chargement des pages, sous forme de vignettes. Une bonne façon de voir les délais de chargement de chaque élément de vos pages.

Google l’a annoncé, les trois nouveaux indicateurs communiqués fin mai – FID, LCP et CLS – sont aujourd’hui fournis à titre indicatifs. Ils entreront toutefois dans l’algorithme de Google dès 2021, une bonne raison pour travailler leur optimisation dès à présent !

Travailler l’UX d’avant l’UX

En focalisant ses prochaines mises à jour d’algorithme sur ces quatre indicateurs, et sur quelques autres révolutions comme l’abandon progressif de la technologie AMP (Accelerated Mobile Page), Google met en lumière un espace qui était jusqu’ici le trou noir de l’UX.

Les habitués des méthodes d’amélioration de l’expérience utilisateur ne s’étonneront pas du constat qui suit : aujourd’hui, l’ensemble des pratiques qui visent à travailler cette expérience sur une page Web ou un écran d’app mobile se concentrent avant tout sur des wireframes et sur des maquettes. C’est-à-dire sur des représentations finies de l’environnement dans lequel évoluera l’internaute. On y discute, pour la partie UI, de la taille des boutons ou de l’accessibilité des menus de navigation, et pour la partie UX de la logique de l’organisation de l’information ou de l’évidence des enchaînements d’écran dans des process longs. Et c’est déjà énorme.

Mais ce qui se passe avant l’affichage de la page complète, de la maquette finalisée, est souvent laissé aux bons soins de l’IT. C’est une question de performance technique, de rapidité des serveurs, de temps de chargement. Et si tout le monde se met d’accord pour dire qu’une page au chargement rapide contribue à l’excellence de l’expérience utilisateur, peu nombreux sont ceux qui se demandent déjà ce que ce « rapide » veut réellement dire.

Google a d’ailleurs longtemps réduit le chargement de la page à des questions purement techniques. Les outils d’audit fournis par le moteur de recherche, et notamment le PageSpeed Insight, ont avant tout fourni à la communauté SEO des indicateurs et des recommandations purement techniques : réduire la taille des fichiers images, alléger le Javascript et les CSS, diminuer les appels à des serveurs externes. Il n’était pas question ici de confort, mais de performance.

Les Core Web Vitals exposés fin mai sont un changement de paradigme dans la perception de la performance par le moteur de recherche. Les rapports du PageSpeed Insights changent d’ailleurs de forme pour l’occasion.
S’ils restent des indicateurs chiffrés – on ne change pas une culture d’ingénieur aussi facilement – ils se concentrent non plus sur la performance pure, mais sur le ressenti du chargement de la page, en imaginant des questions d’internautes telles Puis-je enfin cliquer ? ou Tout le contenu est-il affiché ? Des questions qui parlent bien de l’expérience utilisateur.

Ces nouveaux critères vont donc obliger certains spécialistes de l’UX à étoffer leurs analyses, et à se pencher sur l’Expérience Utilisateur d’avant l’Expérience Utilisateur, une sorte de perception globale du Web incluant des éléments qui n’ont plus de rapport direct avec l’ergonomie. Une façon de réintégrer de la technique à l’UX et de faire – enfin – sauter quelques cloisons.

Il reste donc six mois pour envisager les bonnes mesures.

Tom Cruise face à ses écrans dans Minority Report

Réfléchissez bien… Faites le tour des films et séries de science-fiction que vous avez vu au cours des dernières années. N’ont-ils pas un point commun ?

Bien sûr que si : les écrans transparents ! Regardez bien, ils sont partout !

C’est une gigantesque interface transparente que manipule Tom Cruise afin de prévenir les crimes dans Minority Report. C’est une interface tactile invisible qu’utilisent Tony Stark ou Black Widow pour mettre au point les tactiques d’attaque des Avengers. Et ce sont encore des écrans transparents qui permettent d’explorer la planète d’Avatar ou de contrôler les robots-boxeurs de Real Steal.

Aussi certainement que les voitures volantes marquaient la science-fiction des années 1980, l’écran transparent est aujourd’hui la signature du futur dans l’imaginaire collectif.

Mais dans la réalité, où en sommes-nous de ces interfaces transparentes ?

On a beau fouiller salles de bains et bureaux, si la révolution « tactile » a bien eu lieu, les écrans transparents n’ont pas encore envahi notre quotidien.

Ce n’est pourtant pas la technologie qui est en cause. Si l’on en croit les fabricants de tous bords, les interfaces transparentes sont aujourd’hui à portéé de… doigts. Des preuves, les interfaces tête haute ont commencé à équiper les voitures depuis quelques années. Elles permettent notamment de suivre la vitesse de son véhicule sans pour autant quitter la route des yeux, et surtout sans obstruer la vue du conducteur. De nombreuses marques, dont Jaguar ou Range Rover, ont travaillé à des affichages plus évolués, permettant d’afficher différentes informations sur l’environnement (les angles morts notamment) ou de substituer le pare-brise à l’écran du GPS. Mais on ne parle là que d’affichage, pas réellement d’interactivité.

Mais quand il s’agit de « cliquer » ou de manipuler des objets sur une surface transparente, le pare-brise n’est sans doute pas le meilleur lieu d’expérimentation, loin s’en faut. Alors, on imagine des vitres interactives à l’arrière du véhicule, sortent de tablettes transparentes permettant aux enfants de dessiner ou de zoomer sur le paysage lors de longs trajets. Toyota travaille notamment à ce concept depuis 2012 , sans qu’on l’ait vu pour l’instant dans nos campagnes. Même le célèbre MIT s’est penché sur cette révolution .

S’il faut parler d’interfaces « vitrées », la révolution a pour l’instant plutôt lieu dans la salle de bain. Les miroirs connectés ont été l’une des grandes innovations du CES 2019 à Las Vegas. Le principe est simple : à l’instar d’un iPhone, les miroirs sont connectés à des stores d’application qui permettent de vérifier les dernières actualités, la météo ou les notifications des réseaux sociaux tout en se brossant les dents. Cela ne garantit pas forcément une bonne hygiène bucco-dentaire, mais permet sans doute d’éviter que son Samsung Galaxy ne tombe malencontreusement dans le lavabo. Les tutoriels commencent même à fleurir sur YouTube, expliquant comment transformer un ordinateur Raspberry Pi ou une borne Alexa en « miroir intelligent ».

Consulter la météo ? On est quand même loin de Minority Report.

Et c’est peut-être que finalement la transparence n’est pas à chercher du côté des écrans. A bien y réfléchir, la technologie la plus prometteuse en termes de transparence n’est pas le verre… mais les projecteurs et les hologrammes. Et là, certaines expériences sont impressionnantes. On pensera, tout d’abord, aux écrans projetés des montres connectées, comme le Cicret Bracelet développé par une startup française et qui transforme votre avant-bras en un écran de smartphone. On pourrait également penser aux tests effectués par quelques entreprises, comme Thyssenkrupp, pour faciliter les opérations de maintenance de ses équipes. Equipés de casque Hololens de Microsoft, les opérateurs de ce fabricant d’ascenseurs peuvent ainsi voir, en superposition de leur intervention, les instructions de maintenance nécessaires.

Et pour compléter cela, on pensera enfin à Soli, le projet de Google destiné à interpréter nos gestes et à les transformer en commandes pour les smartphones. Après tout, nous utilisons déjà des interfaces gestuelles dans les jeux vidéo. Elles y sont simplement un peu moins sophistiquées. Alliée à des hologrammes ou à un écran projeté, on s’approche doucement de Minority Report.

Concrètement, elle est où la transparence ?

Les technologies de la transparence, plus ou moins avancées, sont donc là. Pourquoi, alors que les prototypes évoqués ici datent pour certains de 2012, ne vit-on pas au quotidien dans un univers digne d’Iron Man ?
En fait, en l’état des usages, il y a aujourd’hui peu de chance que nous voyons débarquer des écrans transparents sur nos smartphones et ordinateurs.

Pensez-donc à la façon dont vous utilisez aujourd’hui ces écrans : Netflix ? Instagram ? Et des emails professionnels ? Comment réagiriez-vous si le clavier sur lequel vous tapez vos SMS laissez voir votre pantalon ou le sol du métro ? Si l’écran de votre TV 4k prenait légèrement la teinte de votre papier-peint plutôt qu’un noir franc pendant les scènes de nuit des meilleures séries d’horreur ? Cela ne semble pas pratique. Car si les technologies existent et font vibrer les salons de l’innovation, nous n’avons aujourd’hui pas l’usage pour les écrans transparents. Nous voulons avant tout de belles images, et cette course à la qualité n’est compatible qu’avec un environnement visuel totalement maîtrisé : un fond noir ou un fond blanc. Ici la transparence n’est pas de mise.

Reste que les expériences de Jaguar, Toyota ou Tyssenkrupp ouvrent la voie à des usages précis : l’information ou la formation professionnelle dans un cadre maîtrisé, l’assistance à la conduite ou à la manipulation… En fait, des usages cadrés et souvent professionnels où les écrans ne doivent pas « distraire » une opération délicate.

Dans ces usages, la transparence fonctionne en fait déjà. La science-fiction s’est finalement moins trompée sur ça que sur les voitures volantes.

La crise du Covid-19 va changer bien des choses dans nos quotidiens. Et au-delà du déconfinement à venir, et de ses aspects pratiques, notre vie dans les prochains mois, va surtout être marqué par une relation particulière à la distance.
Travailler à distance, éviter la promiscuité, maintenir une distance sanitaire dans les espaces publics… ces comportements émergeant constituent un nouveau terrain d’expérimentation pour les outils numériques.

Travailler à distance, c’est possible !

Pour beaucoup d’entre-nous, qui travaillons dans les secteurs de la communication, du marketing et du numérique, le quotidien a déjà changé.

Depuis la mise en place du confinement au milieu du mois de mars, de nombreuses entreprises se sont vues contraintes de mettre en place une politique de télétravail. Et si certaines étaient préparées depuis longtemps à ces méthodes de collaboration à distance, pour d’autres le déploiement d’outils dédiés et l’empiétement de la sphère professionnelle au sein du domicile ont été une épreuve. Trouver les espaces, sanctuariser les temps – surtout quand l’école impose elle aussi les télé-devoirs – sont des casse-têtes pour bien des collaborateurs et un défi pour les organisations.

Zoom, l’illustration parfaite de nos changements d’habitude au travail

Mais les témoignages sont là, portés et diffusés sur LinkedIn comme autant de preuves de la vaillance et de la résilience de l’industrie de la communication : ça marche. On ne compte plus les écrans MS Teams ou Zoom montrant les collaborateurs rassemblés autour de la même table de réunion virtuelle, les apéros à distance entre salariés pour garder le contact, ou les routines partagées pour conserver le moral et la santé.

Certains d’entre nous ont vite pris des habitudes. Et dans le monde d’après, ce sera sans doute au tour des entreprises de s’adapter à celles-ci. Aura-t-on toujours besoin de ces grands open-spaces qui rassemblent régies ou agences ? Les grandes réunions auxquelles nous assistions régulièrement seront-elles encore indispensables ? Ne gagnerait-on pas un temps précieux à ne pas se déplacer chaque jour jusqu’aux bureaux ? Ces questions seront soulevées, dès l’été, par nombre de collaborateurs. Et elles vont nous obliger à penser de nouvelles façons de travailler dans lesquelles le numériques prendra, chez tous, la part qui lui est promis depuis tant d’années.

Quelle expérience de la distance en boutique ?

Mais cette nouvelle relation à la distance ne va pas concerner que les collaborateurs des entreprises. Demain, les clients eux-aussi feront part de nouvelles attentes et auront besoin de nouveaux repères.

Amazon Go, le magasin sans caisse ni file d’attente, va faire des émules post-confinement

Premier impacté, l’accueil en magasin va changer. Pour nombre d’entre-nous, la promiscuité des rayons, les files d’attente en caisse, les cabines d’essayage, ne vont être qu’un souvenir. Et le passage à un shopping où chaque acte se mesure en mètre va demander de l’organisation et des outils : les techniques héritées de la livraison ou du drive font aujourd’hui des émules dans le secteur du livre ou de la cosmétique. Demain, les applications de prise de rendez-vous, et en conséquence le commerce personnalisé, deviendront légions.

Les soldes ou le Black Friday – ces grands messes consuméristes – vont devoir être drastiquement repensées. Il semble hautement improbable que demain, les consommateurs se tassent dans des magasins en recherche de quelques habits en soldes, se frôlent et plongent leurs mains en même temps dans des bacs d’objets divers. Sans verser dans l’utopie hygiéniste, ces scènes de consommation à outrance, ou en tout cas leur aspect visible, seront sans doute bannies de notre quotidien.

Affluence, l’une des applications qui permet aujourd’hui
de connaître l’occupation et le temps d’attente de différents lieux publics.

Pour orchestrer en boutique la distanciation que l’on nous recommande dans les contacts quotidiens, le numérique semble aujourd’hui une des pistes. Le déploiement d’applications de shopping à distance, de prise de rendez-vous, mais également de gestion des flux en magasin sont autant de pistes que devront être explorées dans les semaines à venir.

Délocaliser l’information

La relation au consommateur n’est pas tout. Les relations entre entreprises, et notamment les métiers plus spécialisés dans le B2B, vont eux également subir une petite révolution.

Les freins que nous avons aujourd’hui vis-à-vis du contact et de la proximité ne cesseront pas dans la sphère professionnelle. Rendez-vous commerciaux, séminaires, grands événements ou encore visites d’entreprises vont devoir se réinventer. Et si pour certaines tâches, les alternatives sont simples à trouver – nous avons tous fait au cours des dernières semaines des rendez-vous client sur Skype ou des ateliers de réflexion dans Zoom – pour d’autres moments de la vie d’entreprise, la tâche s’avère plus ardue.

Travis Scott en live sur Fortnite, une idée des évènements de demain ?

La virtualisation – même si elle amène parfois une déshumanisation – semble être pour un temps la solution. Dès le début du confinement, des plateformes comme Second Life ont suscité un regain d’intérêt. Le secteur de l’événementiel a notamment multiplié les expérimentations. Parmi celles-ci, on retiendra les concerts virtuels de Lady Gaga ou des Rolling Stones organisés sur YouTube, celui de Travis Scott donné sur Fortnite, ou encore le salon Laval Virtual dédié à la réalité virtuelle organisé à distance dans un Laval Virtual World. Ces solutions, purement exploratoires, dessinent une partie de l’événementiel du futur.

La visite virtuelle d’usine, comme celle lancée par Janssen en 2019,
est-elle une solution à la crise de distance à venir ?

La réalité virtuelle, et surtout les casques Oculus en consort auront sans doute leur rôle à jouer dans cette relation business à distance. Sans doute pas dans les relations personnelles – même si on peut imaginer des conf-calls immersives, elles semblent terriblement contraignantes face à nos quotidiens actuels – mais dans la dématérialisation et la virtualisation des lieux. Comme les laboratoires Janssen l’ont fait en 2019, et comme le secteur immobilier l’expérimente depuis des années, il est facile aujourd’hui d’imaginer des visites virtuelles d’usines, d’expliquer des processus à distance et de former les gens, même de loin.

L’usine virtuelle de Safran, modèle du futur ?

La réalité virtuelle s’imbrique aujourd’hui dans le réel, à tel point que chez Safran, il n’est plus besoin de construire un prototype d’usine pour le tester, ni d’envoyer dans un quelconque local pour apprendre de nouvelles méthodes de travail. On virtualise tout. On travaille, échange et conçoit à distance.

Bannir le contact

Il est des gestes du quotidien pour lesquels nous devrons toujours nous déplacer. Et il est des gestes qui nécessiteront toujours une grande proximité. Ainsi, quand nous irons de nouveaux acheter des livres ou des produits de beauté, comment se passera le contact nécessaire à la transaction ?

La crise sanitaire actuelle réveille les fantasmes d’une société sans argent, ou toute transaction financière est dématérialisée. Mais même si certains pays semblent tendre vers cette utopie – les transactions physiques ne représentent plus que 2% des échanges en valeurs en Suède par exemple – le monde financier virtuel n’est peut-être pas pour demain. Ne serait-ce que parce que l’équipement ne peut pas toujours suivre : en 2019, 13% des Français ne possédaient pas de carte de paiement, 23% ne possédaient pas de smartphone.

La paiement sans-contact, la norme d’un monde Post-Covid ? Comme ici dans les transports en commun de Dijon, via la plateforme d’Open Payment de Keolis.

Pour autant, il faudra réfléchir demain à cette explosion du paiement sans contact, comme il est actuellement possible dans les petits commerces – sur un plafond d’ailleurs relevé à 50€ en ce début d’année – ou dans les transports en communs de quelques villes. Gageons également que la fin du contact voulu mènera à son lot d’expérimentations autour des magasins sans caisses et sans caissiers. On pense bien entendu à Amazon, même si le modèle est décrié, mais aussi – la boucle est bouclée – aux logiques d’abonnement mises en place par certaines librairies et aux drives des grandes surfaces. Des solutions qui encore une fois répondent à notre besoin de distance.

La technologie bien sûr… mais au service de l’humain

Les mois qui arrivent vont apporter de grands changements dans le comportement des utilisateurs. Ces mutations ont d’ailleurs déjà commencé, et se concrétisent dans notre quotidien. Marques, entreprises, agences… vont devoir être, plus que jamais, à l’écoute des attentes des utilisateurs en matière de sécurité, de services, mais également de transparence dans la communication.

Dans le monde d’après, la technologie ne sera pas une réponse simple aux nouvelles préoccupations. Elle ne sera qu’un élément d’un cocktail composé d’écoute de l’utilisateur, de respect de ses attentes – notamment en matière de vie privée, et le débat sur l’application StopCOVID montre combien ce sujet est sensible – et de souci environnemental toujours fort. Mais la technologie sera un élément indispensable de ce cocktail.

A nous de faire en sorte qu’il ne le rende pas amer.

Le Net a envahi notre quotidien, mais il doit encore évoluer pour devenir plus utile, mais aussi plus responsable.

De terrain de jeu pour geeks, Internet est devenu incontournable dans nos vies. Mais, alors qu’il y a 20 ans on se félicitait de l’ère d’ouverture culturelle et de partage qu’il allait provoquer, on l’accuse aujourd’hui de nous surveiller, travestir la vérité et de manipuler l’opinion.

Les technologies ont évolué à grande vitesse mais le Net pourtant n’a pas changé. Si on est passé du mail au snap, de la page Web à la story… les possibilités de rencontre, de partage, de découverte restent là, portées par des internautes friands de contacts et d’interactions.

Aujourd’hui comme hier, les outils digitaux rapprochent les utilisateurs, facilitent l’accès à la connaissance, améliorent l’expérience – et parfois la vie – des humains. Le monde connecté n’est peut-être pas féerique, mais il est loin d’être l’obscure dystopie qu’on dépeint souvent.

En 2020, les agences digitales doivent, plus que jamais, remettre à l’honneur un Digital utile et responsable, tout en gardant à l’esprit son impact sur les utilisateurs et sur la planète.

Avec leurs clients, elles peuvent développer des services réellement utiles aux internautes, citoyens, consommateurs ou collaborateurs. Elles doivent accompagner ces mêmes clients dans la maîtrise des enjeux du monde digital, l’appréhension de ses dimensions environnementale et sociétale, et l’identification de ses dérives possibles.

Être agence digitale en 2020, ce n’est plus seulement faire, c’est surtout faire grandir.

Aujourd’hui une agence digitale doit accompagner les marques pour une réelle démarche RSE intégrée : dématérialiser, mais aussi penser à la fin de vie des outils et des campagnes, aux données stockées sans raison ou aux sites qui ne sont plus visités. Se poser la question des bénéfices à long terme du remplacement de catalogues par des sites qui fonctionnent H24, pour des exploitations souvent ponctuelles. S’interroger sur les impacts et bilans carbone de ces outils, que peu considèrent aujourd’hui.

Une agence digitale, plus qu’aucune autre, doit questionner l’expérience client globale et créer des connexions utiles, fluidifier les démarches. Où est la priorité aujourd’hui : déposer 40 cookies sur son site marchand ou gérer au mieux les files d’attente ?

Une agence digitale doit accompagner la mise en oeuvre, mais surtout conseiller la stratégie de moyens. Plutôt qu’une nouvelle expérience de réalité virtuelle, n’est-il pas plus responsable d’investir dans une application de formation à la sécurité ? Et mieux servir l’engagement responsable de la marque et au final son image et ses ventes ?

Au-delà de leur expertise technique, les agences digitales doivent être des partenaires humains et responsables, et être aux premiers rangs pour construire un digital bénéfique pour tous.

David mit son casque. Après quelques secondes, le temps que l’appareil démarre, il se sentit comme transporté. Cette journée qui s’annonçait pénible au bureau ne démarrait finalement pas si mal que ça. En tournant la tête, il remarqua que le soleil faisait ce matin de très jolis reflets sur les façades vitrées des immeubles. Sur les quelques centaines de mètres qui séparaient l’arrêt de bus du siège de l’entreprise, il se surpris même à faire quelques pas chassés. Il était décidément de bonne humeur… Cet appareil avait des vertus insoupçonnées et permettaient de changer l’humeur et la perception de la journée. Une sorte de réalité… altérée. En entrant dans l’immeuble, David fit un grand sourire à la fille de l’accueil.

Cela ressemble au début d’une expérience de réalité virtuelle, telle qu’une start-up des années 2010 pourrait la présenter auprès de ses futurs clients. Sauf que cette histoire pourrait tout aussi bien avoir…40 ans ! Car, si on excepte quelques expériences psychédéliques comme le fameux Bicycle Day d’Albert Hofmann, découvreur du LSD, l’invention de la Réalité Virtuelle, ou Augmentée, technologique date de 1979. Et plus précisément de là :

https://youtu.be/xOTfzZCyCmo

L’invention du Walkman par Sony en 1979, et surtout le succès de sa commercialisation grâce à des supports audio – les fameuses cassettes inventées par Philips [1] – pratiques, fiables et surtout enregistrables, a fait énormément pour la propagation de la culture digitale et le changement de la perception des médias [2].

Pour faire court, le Walkman a permis deux choses : la création de la première bulle de média personnalisée et l’apparition d’une réalité augmentée purement technologique.

L’apparition du média personnalisé

Avant l’arrivée du Walkman, comment écoute-t-on de la musique ? A vrai dire, on l’écoute surtout chez soi. La culture populaire a retenu l’image des familles rassemblées devant la radio ou celle de la platine vinyle située près du bar et du disque qu’on écoute un verre de whisky à la main après une journée de travail stressante.

La musique n’est finalement devenue nomade qu’assez tard : le poste à transistor dans les années cinquante [3] fait sortir la radio hors-les-murs, et quelques platines 45 tours ans les années soixante permettent d’emmener ses disques favoris dans le parc, le temps d’un pique-nique avec les copains [4]. Mais si la musique se nomadise, l’écoute reste collective. La radio s’écoute entre collègue, en famille… et si on peut choisir la galette de l’après-midi, c’est toute la bande qui profite du dernier Richard Anthony.

Avec le Walkman, ce qui change c’est l’individualisation de l’écoute. Ce casque aux mousses orange permet à deux personnes proches physiquement d’écouter deux musiques totalement différentes : chaque expérience musicale devient unique puisque vécue par un individu seul, et surtout isolé.

Le Walkman ne permet plus le partage de la musique et de l’expérience sonore et coupe, également, les échanges sociaux.

Est-ce que cela ne vous rappelle rien ? Les habitudes prises avec le Walkman sont extrêmement proches de celles vécues aujourd’hui avec les smartphones. Ajoutez simplement un écran et vous verrez que chacun possède désormais sa bulle d’information en plus de sa bulle musicale et que cette bulle coupe de fait les échanges entre personne en instaurant des filtres sur les contenus. Si l’on ne lit pas la même chose, ou qu’on ne voit pas le même film, difficile d’en parler ensemble.

Résultat de recherche d'images pour "walkman guardians of the galaxy"

Sans aucun jugement, le Walkman est bien le première acte d’une personnalisation des médias, un premier clou dans le « cercueil » des médias de masse et de la consommation de groupe des contenus. Ne serait-ce que pour cela, le monde digital d’aujourd’hui lui doit beaucoup.

La première des réalités augmentées

Mais creusons plus loin. Si le Walkman est précurseur du Smartphone, il est également précurseur de l’ensemble des expériences de réalité augmentée que nous mettons en place aujourd’hui.

Vous vous souvenez de l’histoire de David ? Si sa journée a tant changé entre son réveil et son arrivée au bureau, c’est peut-être que dans ses oreilles passait Walking on Sunshine de Katrina & the Waves (oui, le morceau date de 1983, pas de 1979).

La perception que David avait de son environnement a changé par le simple ajout d’une musique…

D’ailleurs, faites l’expérience par vous-même : dans le métro, passez successivement d’un morceau triste à un morceau joyeux, par exemple d’un trio (l’opus 100) de Schubert au Love Shack des B-52’s. Continuez à observer les gens autour de vous : la perception que vous aurez de leurs actions, de l’histoire qu’ils vous évoquent, ne sera pas la même. La musique influe sur notre perception, tout cinéaste l’a compris. Elle est surtout la première des réalités augmentées.

Dans les années qui séparent l’invention du Walkman de celle de l’Oculus Go, on s’est peu penché sur le pouvoir de transformation du son. La seule mise en place concrète d’une « augmentation d’expérience » grâce au son est sans doute la création des audioguides dans les musées [5]. En fournissant une couche d’explication sonore, ceux-ci transforment une simple contemplation en une expérience éducative. Encore une fois, une réalité augmentée.
Quelques initiatives existent aujourd’hui, permettant soit d’atténuer le son extérieur [6], soit de commenter notre environnement [7]. Mais depuis le début des années 2010, les expérimentations en la matière ne semblent concerner que l’image. Facebook, Google, Apple ou encore Microsoft… tous se concentrent avant tout sur des lunettes permettant de nous emmener dans un univers parallèle ou de déformer notre quotidien. Peu se penchent encore sur le son.

Reconstruire un monde sonore

Pourtant, le son n’a jamais été autant à la mode qu’aujourd’hui : les Podcasts battent des records d’audience [8] et nos habitudes de mobilité (voiture, vélo, marche) ou nos activités physiques laissent nos oreilles libres si elles occupent nos mains. Et nos smartphones, que nous dégainons plus de 150 fois par jour, ne sont-ils pas conçus pour véhiculer avant tout de la voix et du son ?

Musique, textes, Histoire et histoires, il y a beaucoup à imaginer autour de la réalité augmentée sonore. Et si le sujet n’intéresse pas spécialement les GAFA, de nombreux projets pourraient demain changer votre quotidien avec quelques mots ou quelques notes de musique. Il n’y a finalement qu’à imaginer les dispositifs… et profiter de l’héritage fabuleux que nous a laissé le Walkman.