En relisant ces dernières semaines l’excellent Supercade [1] paru aux presses du MIT il y a cela près de 20 ans, je me faisais quelques réflexions sur la technologie et notre relation à celle-ci...

🎵 Salle d’arcade. Ambiance années 80. Démarrez donc la B.O. de Stranger Things
pour poursuivre la lecture de ce billet de blog…

Mais d’abord, pour ceux qui ne connaissent pas l’ouvrage, quelques mots sur Supercade. Abondamment illustré, ce bouquin est un concentré d’histoire des jeux vidéo, couvrant une période allant de 1971 à 1984 et orienté principalement sur le petit monde des salles d’arcade. Très américain dans l’âme, Supercade donne des bouffées de nostalgie à tout ceux qui ont dépensé de l’argent sur Galaxian en attendant leurs parents à la caisse du supermarché ou rêvé devant les écrans de Space Ace à la fête foraine du village. Une enfance biberonnée aux pixels, à une époque où le videogaming n’avait pas encore envahi les maisons, et où les enfants ne passaient pas encore leurs journées de confinement sur la Nintendo Switch ou la PS4 en attendant que leurs parents leur disent de bien finir leurs devoirs. Une époque où les jeux vidéo se consommaient dehors. Nostalgie, donc.

Le livre revient également sur les toutes premières élaborations de jeux sur écran, dans les salles sérieuses des universités américaines : au Laboratoire National de Brookhaven en 1958 et au MIT en 1962. Dans les deux cas, ces premières expérimentations sont le fait de passionnés.

Tennis for Two est là, sur la gauche de la photo.
Ce tout petit écran rond, avec les deux manettes de jeu juste en dessous.

Tennis for Two naît en 1958 à Brookhaven dans le cadre des journées portes-ouvertes du laboratoire [2]. L’idée est de démontrer aux visiteurs la puissance et l’attractivité des monstres informatiques qui occupent plusieurs salles des bâtiments, et le meilleur moyen de démontrer tout cela est… la conception d’une démonstration interactive sur écran. Autrement dit, un jeu. Le succès est au rendez-vous est Tennis for Two, une simpliste simulation de tennis sur oscilloscope (pas plus compliquée qu’un bon vieux Pong) devient le clou de la visite pour de nombreuses personnes.

Une partie endiablée de Spacewar! dans les locaux du MIT dans les années 1960.
Et vous ne voyez même pas la file d’attente des gamers un peu plus loin.

Autre glorieux vétéran, Spacewar! naît lui au MIT en 1962 dans des circonstances un peu différentes [3]. Les « coupables » sont cette fois les jeunes étudiants du Tech Model Railroad Club [4] du laboratoire, habitués à détourner les outils disponibles ici et là pour améliorer leur réseau de chemin de fer miniature. Littéralement tombés sous le charme d’un nouveau modèle d’ordinateur, ils se mettent au défi de le pousser dans ses retranchements à l’aide d’une démonstration technologique complexe. Quoi de mieux qu’une application interactive pour cela ? Un jeu ? Spacewar!, qui voit s’affronter deux vaisseaux autour d’un trou noir sera – réellement – un défi technologique. Conçu par des chercheurs et des ingénieurs, le jeu respectera le plus scrupuleusement possible les lois de la gravité ou la disposition des étoiles dans le ciel, demandant de multiples optimisations technologiques et informatiques avant d’être présenté à un public plus large. Le jeu aura un succès retentissant dans le milieu universitaire.

Viendra ensuite l’ère des businessmen, le développement des consoles de salon par les fabricants de télévision américains – Magnavox en tête – et la création de la première entreprise entièrement dédiée aux jeux vidéo : Atari. Mais c’est une autre histoire [5].

🎵 Une salle informatique, dans les années 1950.
Cette fois, un peu de Pierre Henry vous mettra dans l’ambiance.

Les premières pages de Supercade nous rappellent surtout que les jeux vidéo sont une invention de technophiles et de passionnés. Des types venus d’une époque où l’informatique était un fantasme qui s’était tout récemment concrétisé en quelques gigantesques armoires de métal. Une époque où le numérique n’avait pas encore envahi le quotidien de tout un chacun et faisait encore l’effet d’une vaste Terra Incognita. Une époque où l’exploitation des données de milliers de personnes par les premiers systèmes IBM n’avait pas encore soulevé de questions quant à notre dépendance aux octets et à l’impact des bases de données sur notre société et nos vies quotidiennes [6].

Supercade rappelle également que ces précurseurs ont été les premiers d’une lignée de passionnés qui ont fondé toute l’industrie des jeux vidéo : des codeurs, pour la plupart, apprenant à maîtriser tous les arcanes d’un processeur, à optimiser les affichages et qui voyaient parfois dans l’art vidéoludique plus qu’un business : un défi technologique et parfois une nouvelle forme d’expression.

Fin de la séquence nostalgie, retour au temps présent !

Nous vivons à la fois une période de techno-hystérie et de techno-doutes.

S’il ne devait y avoir qu’une seule image-symbole de l’emballement technologique
de notre société actuelle, ne serait-ce pas cette antenne 5G ?

De techno-hystérie car il n’a jamais été autant question de mettre de la technologie partout. Résultat de plus de soixante ans de lune-de-miel informatique, notre société vit dans le numérico-solutionnisme. Nous développons des solutions numériques pour tout : gérer des attestations [7], composter nos déchets [8], reporter les incivilités [9], allumer notre chaudière [10] et bientôt gérer notre conduite automobile en partenariat avec les sociétés d’assurance [11]. Certains – et pas des moindres – étudient même la possibilité de créer des arbres-technologiques destinés à absorber nos excédents de CO₂ [12], caricature s’il en était besoin de là où nous pousse la technologisation à outrance de toute réflexion.

« Oui, il y a une app pour ça aussi ! »

De techno-doutes car, en regard de cette course à la technologie qui rappelle les plus belles inventions du monde cyberpunk [13], les critiques n’ont jamais été aussi nombreuses. Souvent fondées face aux multitudes de projets de vidéosurveillance et de tracking de la population, face à l’emprise des régies publicitaires sur nos vies en ligne [14] et face à l’empire des GAFA sur la société au global [15] – aussi bien économiquement que technologiquement. Les voix se multiplient, les analyses s’affinent et les réflexions évoluent devant ce que les années 2010 nous ont vendu de panacée numérique. Le réveil techno-critique est à comparer au réveil écologique des années 1970 [16], en espérant toutefois son impact bien plus rapide et concret.

Rêvez-vous de balles multicolores qui rebondissent sans fin sur des écrans,
comme dans
les bonnes vieilles demos des Amiga ?

Cette période critique, charnière et passionnante fait toutefois se poser nombre de question, dont une d’importance : où est passé le rêve ?

Les proto-informaticiens des années 1950 rêvaient de l’ordinateur et de ses applications, tout comme Jules Verne rêvait de l’électricité et des transports émergents. Ils en rêvaient comme rêvent les artisans, concrètement, avec les mains – digitalement – en créant prototypes, expérimentations, démonstrations, monstres et artefacts. Ils ne rêvaient pas de solutions. Spacewar!, pas plus que Pong ou Space Invaders, n’est une réponse à un quelconque problème. Ils rêvaient de possibles. Puisque la technologie existe, il doit être possible de la pousser – gratuitement, sans but – plus loin encore que ce qu’elle ne réalise déjà. Les jeux vidéo, comme beaucoup des fantasmes technologiques d’aujourd’hui, n’ont pas d’objectifs. Ils étaient seulement possibles et on fait rêver des millions de personnes, bousculant à la fois le monde des loisirs, l’industrie balbutiante de l’électronique et de l’informatique et la culture populaire. Une sorte de porte ouverte vers un nouvel univers.

Que sont devenus ces rêves aujourd’hui ?

Rêvez de la technologie n’est plus à la mode… Tout d’abord parce que depuis les années 1990, le monde numérique s’est mâtiné de capitalisme. On n’explore plus les technologies pour le simple plaisir de voir ce qu’elles peuvent faire : on business-plane, on analyse, on solutionne, on start-upise. Le modèle des Business Angels de la Silicon Valley et la mythologie du garage sont passés par là, transformant toute expérience numérique en une culbute potentielle. Nous vivons à l’heure de la Start-up Nation et des investissements : les explorateurs, les poètes, les bénévoles de la technologie se font rares. Les ambitions sont-elles nombreuses

🎵 Le building de la Tyrell Corp dans le Blade Runner de Ridley Scott en 1982 (B.O. pour vos oreilles),
prototype du siège d’Apple ou Facebook ?

Ensuite, devant l’ampleur des empires techniques, on serait tenté de croire que le numérique n’est plus de toutes façons un monde de bricoleur, mais un univers de gigantesques corporations – coucou la Tyrell Corp [17] et l’univers cyberpunk de Blade Runner – et s’il reste des ingénieux capables de concevoir des boîtes à message branchées sur Telegram [18] ou des juke-box magnétiques [19], ce rêve numérique a du plomb dans l’aile. Peut-être parce qu’il a dévoilé trop de ses côtés obscurs – sociétaux, écologiques, cognitifs… et peut-être qu’après une période d’enchantement vient toujours la période des désillusions ? Peut-être un peu parce que le monde digital est également une cible facile en ces temps de crise – sanitaire, écologique, économique… – et que quitte à interdire aux enfants de rêver d’avions, on pourrait également leur interdire de rêver de robots ?

Rêvons-nous encore de moutons électriques ?

Les technophiles des années soixante, les chercheurs et les industriels qui travaillaient et découvraient les possibilités des gigantesques systèmes informatiques des universités et laboratoires d’état, ont donné naissance – pas tout à fait malgré eux – à une contre-culture solide qui a irrigué le monde. Plus artistique, plus libre, et quelque part plus responsable, la vague hippie des années 1970 est apparue en partie en réaction à l’American Way of Life et à la débauche d’écrans – de télévision – de l’Amérique moyenne. Et comme rien n’est jamais simple, elle a également joué de ses moyens technologiques pour diffuser son idéal, faire bouger les lignes et faire résonner ses revendications. Les écrans des networks établis sont également devenus les mégaphones de la contre-culture, les supports d’expérimentation des artistes des années soixante et soixante-dix. La technologie est devenue moyen de militantisme, arme de changement. Bien entendu, l’histoire est plus compliquée que cela.

Le maquillage anti-reconnaissance faciale, prochaine mode ?

Aujourd’hui, nos rêves se nourrissent d’autres idées. Des idées qui, sans exclure les outils technologiques, ne leur donnent plus forcément la part dominante. On parle du recyclage de la ville [20], on parle de créer de nouvelle mobilité, on parle de préserver l’anonymat sur le Net [21], on parle de révolutionner le monde de l’habillement et de laisser disparaître l’écologiquement désastreuse mode du Fast-Fashion [22], on parle aussi et surtout d’adapter nos innovations aux défis écologiques et sociétaux auxquels nous devons faire face sans pour autant tout sacrifier à la technologie.

Il est difficile de sortir de plus de cent-vingt ans de culte de la machine. Mais sans parler de retourner à l’ère de Amish – on ne l’a jamais réellement envisagé, l’imaginer est une caricature politique [23]il est difficile de nier que nos rêves sont en train de changer, et que la pandémie globale de Covid-19 qui fait danser l’humanité depuis plus d’un an a sans doute accéléré la valse de nos envies.

Le parallèle est tentant. Vingt ans après la première bulle du Net et après plus d’une dizaine d’années de techno-culte, ne sommes-nous pas en train de construire une nouvelle contre-culture sur le lit des réseaux sociaux et des technologies ouvertes ?

L’urbanisme circulaire n’est-il pas notre nouveau rêve de communauté ? La lutte contre la surveillance est-elle une nouvelle forme du refus de l’emprise administrative ?

Si le contexte s’est globalisé et concerne désormais le monde entier, et chacun d’entre nous, si l’urgence écologique est autrement plus urgente qu’elle ne l’était il y a cinquante ans, les parallèles sont troublants et la répétition d’un cycle d’action-réaction est flagrant. Loin des nouveaux amish, nous sommes peut-être les nouveaux hippies. Des hippies que ne nient pas l’apport de la technologie, qui en jouent et savent – parfois – en éviter les abus. Et qui veulent cette fois, au lieu de simplement l’explorer, en connaître les limites « humaines » et réfléchir à ses apports réels à la société.

Les créateurs de Tennis for Two et de Spacewar! rêvaient de technologie pure et voulaient pousser les machines dans leurs retranchements. Ils se voyaient en explorateurs d’un nouveau monde technologique. La génération qui a construit le Net des années 2000 est sans doute la dernière à avoir partagé ce rêve technologique pur.

Le dôme géodésique comme symbole des utopies des années soixante.
Quel symbole pour celles d’aujourd’hui ?

Aujourd’hui, nos imaginaires et nos ambitions ont besoin de se transformer.

En soixante ans, nous avons vu ce dont était capable la technologie et les dérives auxquelles elle pouvait mener. Nous maîtrisons les ordinateurs, mais il nous manque sans doute la sagesse de maîtriser l’usage que nous en faisons. Ne plus faire la technologie pour la technologie, passer le cap, voilà le défi que les nouveaux hippies ont besoin de relever. Redonner à l’homme une place centrale dans la révolution numérique, redonner à la Terre une place centrale également et continuer à construire des outils et des imaginaires qui servent ce recentrage.

Aujourd’hui, nos imaginaires ne sont sans doute plus ceux d’explorateurs. Noyés dans la technologie, nous rêvons d’une façon de ré-habiter le monde – et pourquoi pas avec l’aide des machines quand celles-ci sont positives, responsables et non-aliénantes.

Reste une bonne nouvelle : c’est que nous rêvons toujours.

#RIP Flash (1996 - 2020)

Macromedia, pardon, Adobe Flash, a donc quitté la scène digitale en ce tout début d’année 2021 [1]. Un peu dans l’indifférence générale.

Il faut dire que depuis la sortie du premier iPhone en 2007 et de son non-support des sites développés en Flash, cette plateforme de création avait cessé de séduire le grand public. Flash n’a jamais franchi la révolution mobile et continuait à vivoter depuis 10 ans sur certaines interfaces professionnelles et de rares sites potaches, supplanté par le HTML 5.0 et les possibilités devenues quasi-infinies des feuilles de style. Aussi Flash était comme ces acteurs centenaires dont la nouvelle du décès surprend [2]. On ignorait finalement qu’il était encore vivant…

Pourtant, il y a bien un avant- et un après-Flash à l’échelle du Net. Et la révolution que le logiciel signé Macromedia/Adobe aura portée peine à trouver sa succession dans un Net d’aujourd’hui peuplé de réseaux sociaux.

La révolution Flash

Pour ceux qui n’ont pas connu l’ère des dinosaures, il est peut-être bon de revenir sur la révolution qu’a été Flash dans l’expérience utilisateur du Net. Le Web des origines, celui de la fin des années 1990, est avant tout un univers textuel. Et si les premières normes HTML autorisent bien entendu l’intégration d’images, il est bon de se rappeler – avec une petite larme de nostalgie – que la logique d’organisation des contenus et des formes tire alors sa logique des machines à écrire plus que des toiles de maître ou de la télévision. On écrit, on trace des tableaux, on inclut des images pour illustration et avec un peu de pratique, on embellit tout cela avec quelques feuilles de style. L’interactivité du Web 1.0, ce sont avant tout des liens qui mènent d’une page à l’autre, et parfois provoquent quelques réactions sur les écrans cathodiques. Merci le Javascript balbutiant.

L’arrivée de Macromedia Flash dès 1996, et surtout son développement poussé à partir de 1999, va ouvrir de nouveaux horizons au développement Web. La logique de présentation de Flash ne vient pas du Web, elle vient du monde des CD-Rom, éducatifs et encyclopédiques. Un monde dans lequel on ne réfléchit pas en page, mais en écran. Un monde où le graphisme est roi, où l’information se fait volontiers visuelle et où l’interactivité va jusqu’au développement de routines de jeux simples. Le grand frère de Flash, c’est Macromedia Director [3], logiciel incontournable de bon nombre de studios multimédias dans années 1990, grâce auquel vous – les plus anciens – aurez pu découvrir Le Louvre [4], les grandes batailles de l’histoire ou les mystères du Machu Picchu.

Avec Flash, le Net s’affranchit de sa logique linéaire. Les images s’affichent en grand écran, les formes se manipulent aisément, l’interactivité devient reine. Avec Flash, le Net devient une réelle expérience multimédia. Bien avant YouTube, les dessins-animés et les cartoons envahissent la toile – souvenez-vous des Badgers [5], de Leak Song [6] ou des Vikings Kittens [7]. Le Net devient un espace de jeu – Yeti Sports, parodie cruelle des jeux olympiques d’hiver, ressuscitée depuis sous d’autres formats [8].

Pour les développeurs aussi, Flash change la mise. Le Net sort de la secte des codeurs-intégrateurs et s’ouvre aux graphistes et aux animateurs. Une toute nouvelle caste de travailleurs du numérique qui vont donner aux Web une patte graphique qu’il n’aurait pu avoir sans eux. On a peut-être du mal à se le rappeler aujourd’hui, mais Flash contribue, du moins en partie, à faire du Web un média à part entière. Oui, rien que ça.

Où sont les interfaces d’antan ?

Mais les révolutions n’ont qu’un temps. Flash, émancipateur de la narration et de l’interactivité du Net, n’a pas résisté à la déferlante du mobile. Moitié par lourdeur – oui, les plug-ins Flash était lents et exaspérant, mais ils en valaient la peine ! – moitié pour des questions de sécurité – oui, Flash avait quelques failles, et les hackers n’hésitaient parfois pas copier son fonctionnement pour pirater les PC des internautes – et moitié pour des raisons politiques.

Adobe Flash, l’éditeur de logiciels Adobe ayant racheté la maison Macromedia en 2005, a donc tué Flash le 31 décembre dernier. Et le 12 janvier 2021, l’ensemble des navigateurs du marché – Chrome, Firefox et Safari en tête – ont cessé de supporter les anciennes versions du système, reléguant un pan entier de l’histoire du Net dans l’oubli [9]. Bien entendu, de nombreux frameworks de développement, mêlant différentes technologies, permettent aujourd’hui de créer des interfaces Web dignes du Web d’antan, et même des interfaces plus rapides, plus stables et plus standardisées. Mais le goût de l’innovation et du bizarre qui accompagnait l’extension d’Adobe semble avoir disparu des écrans.

Les réseaux sociaux ont démocratisé le scroll, rendant le balayage du pouce la quasi-seule interface disponible sur les écrans de mobile. D’Instagram à Twitter, de Facebook à LinkedIn, on scrolle à l’infini [10]… et si le format stories a un temps chamboulé les lignes éditoriales, sa copie d’une plateforme à l’autre (Instagram ,puis Facebook, LinkedIn et Twitter, encore [11]) fait que l’on scrolle encore. Le mouvement vertical s’est seulement mué en un mouvement horizontal.

Et sur les écrans d’ordinateur, la domination de WordPress et d’autres CMS – qui a dit PrestaShop ? qui a dit Wix ? qui a dit Drupal ? [12]a fait émerger des interfaces graphiques standardisées, suivant les bonnes pratiques de l’UX et de la performance digitale.

Si l’on voulait être caricatural, on oserait clamer que la dernière innovation des interfaces Web est le swipe [13], cette façon d’accepter ou de refuser un contact adoptée par Tinder en 2012 – huit ans déjà – et adoptée depuis jusque dans les sites médias [14]. Sortie de là, la créativité semble avoir déserté les écrans.

Créativité, où es-tu ?

Et pourtant, le Net d’aujourd’hui permet, plus que jamais, de se risquer au développement d’interface riches et complexes, parfois les seules capables de réellement nous présenter un sujet dans sa complexité, justement. Ces expérimentations existent, mais elles semblent rarement toucher le grand public.

Ainsi, le Lab du New York Times développe depuis quelques années un réel savoir faire en termes d’interfaces innovantes et de webdocumentaires. L’exemple le plus flagrant, et le plus grand public, est sans doute l’analyse complète publiée à l’été 2020 sur l’explosion du port de Beyrouth [15]. Sur une seule page, le quotidien américain utilise des techniques aussi diverses que le découpage vidéo, le timelapse et l’infographie 3D pour faire comprendre les causes et les conséquences d’un évènement au retentissement majeur. Un mix média que n’auraient pas renié les développeurs Flash des années 2000. Le New-York Times est d’ailleurs pionnier dans la représentation infographique et n’hésite pas à décortiquer sa logique de présentation de l’information sur un site dédié [16] . Photos, vidéos, et même réalité virtuelle y ont la part belle, dans ce qu’on aimerait être un des prototypes du Web de demain.

En France, les interfaces conçues par l’Atelier, cellule de veille et d’innovation de BNP Paribas [17], font elles aussi figure d’exemple. Ici, forme et fond se mêlent pour projeter l’internaute dans une thématique et lui faire comprendre ce qu’est réellement l’économie virtuelle [18], ou quels sont les enjeux technologiques de demain [19]. Comme chez le New-York Times, on admirera la maîtrise du propos et l’adéquation souvent parfaite de la forme avec celui-ci. Un travail qui témoigne sans doute d’une réelle cyberculture, une inventivité et une créativité qui puise ses racines dans celles du monde numérique, cybernétique et science-fiction en tête.

Ces exemples montrent en tout cas, que Flash mort, on peut encore espérer un Web créatif et multimédia.

Remettre l’innovation au cœur du Web

Alors que certains nous proposent – très sérieusement – un avenir digital dans lequel la réalité virtuelle et les interfaces vocales auront disrupté les écrans d’ordinateur, et à l’heure où, Covid-19 oblige, le Net et ses interfaces prennent une part toujours plus importante dans nos vies, peut-être est-il temps de remettre un peu de la créativité de Flash dans nos pages Web.

Pour surprendre, donner envie de consulter d’autres contenus que les sempiternels fils des réseaux sociaux et nous faire découvrir l’information autrement.

Et si on remettait l’innovation au cœur des interfaces, pour un Web plus enthousiasmant ?

Digital Sunrise, 2021, l'année du numérique positif

Traditionnellement, le mois de janvier est à la fois celui des bilans et des résolutions. Le bilan des mois écoulés et de ce qu’ils ont apporté comme tendances et comme espoirs ; les résolutions pour l’année à venir et la liste des actions à mener pour bâtir – on le souhaite – un avenir meilleur.

2020, année hystérique

Du côté des bilans, on ne va pas revenir sur l’année de la Covid-19. L’épidémie qui a touché le monde a changé les habitudes, imbriqué plus que jamais la sphère privée et l’environnement professionnel, poussé à outrance la digitalisation des entreprises, fait de nous des adeptes du click & collect et des apéro-zoom. Contexte oblige, 2020 a été l’année de l’hystérie numérique. Nous n’avons jamais passé autant de temps sur Netflix, envoyé autant de messages, partagé autant notre image, diffusé autant de données. Nos sociétés occidentales n’ont jamais été aussi connectées, dépendantes des smartphones, des écrans et des Data. Et les images qui nous viennent des expérimentations chinoise annoncent clairement que la route de la numérisation n’a pas fini d’être tracée.

Il y a du bon et du moins bon dans cette digitalisation galopante. Les outils numériques ont permis de garder le contact pendant les périodes d’isolement, en famille ou entre collègues. Ils ont permis d’assurer une activité, et donc des revenus, à certaines catégories professionnelles. Ils ont également montré leur importance croissante dans la dénonciation des injustices et la mobilisation des espoirs. On n’oubliera pas qu’après les #MeToo de 2019, l’année 2020 a été l’année de #BlackLivesMatter, un mouvement dont l’ampleur et la mobilisation n’auraient pas été possible sans les outils numériques, les caméras, les réseaux sociaux et leur capacité d’amplification [1]. Mais un mouvement dont il reste encore à trouver un aboutissement concret.

Parce que 2020 aura également été une année sombre pour les outils digitaux. L’emprise des réseaux sociaux – Facebook en tête – augmente, et les tentatives de régulation de ce Léviathan du contenu et de la publicité n’aboutissent toujours pas, laissant la voie libre aux extrémismes et à la manipulation. L’instantanéité de ces mêmes réseaux a continué à modeler notre paysage médiatique, laissant parfois de côté la raison et la prise de recul nécessaires à la vie dans une société harmonieuse. Les discours emprunts de solutionnisme technologique restent d’actualité – y compris dans la sphère politique [2] – malgré les échecs des modèles de Smartcity à Toronto ou à Songdo. Et enfin, l’empreinte écologique des outils numériques est en 2020 plus importante que jamais, alors que l’urgence climatique se fait de plus en plus pressante.

Comme toutes les années d’hystérie, 2020 nous aura fait naviguer entre crises et espoirs de mois en mois en laissant finalement un bilan complexe : nous ne reviendrons jamais en arrière sur cette société digitale, elle nous accompagnera encore longtemps, mais il devient urgent pour chacun de prendre conscience de ses dérives et de trouver – chacun à sa mesure – le moyen de lutter contre elles.

2021, année responsable

Pour autant, l’année 2021 ne démarre peut-être pas sous de si mauvais signes. Dans le flot d’actualité de ces dernières semaines, occupé en grande partie par la pandémie et l’actualité politique américaine, on voit poindre les premiers discours, les premières actions de lutte contre l’hystérie ambiante.

Elles sont juridiques et politiques. En décembre, 46 états américains ont déposé une plainte contre Facebook pour position monopolistique [3]. La commission européenne semble vouloir durcir le ton face aux politiques fiscales des GAFA [4]. Les travailleurs de Google ont, en ce début d’année, fondé le premier syndicat de l’histoire de l’entreprise [5]. Et enfin, Facebook et Twitter ont, pour la première fois en quatre ans, suspendu les comptes de Donald Trump à la suite des évènements du Capitole américain du 6 janvier.

Des signes qui permettent d’imaginer une année numérique 2021 responsable. Responsable quant à l’impact du numérique sur nos vies quotidiennes, nos opinions et nos relations avec les autres. Responsable quant à la place qu’occupent ces outils dans nos vies. Mais une année responsable uniquement si chacun des professionnels – de plus en plus nombreux – qui opèrent au quotidien dans les sphères digitales agit également pour un numérique positif.

5 principes pour un numérique positif

Pourquoi parler de cela quand on est une agence de design digital ? Aujourd’hui, être partie prenante de l’écosystème numérique, c’est être au choix une composante de l’hystérie ou un apporteur de solutions. Chaque agence, chaque acteur digital devra en 2021 choisir les actions qu’elle entend mener pour ce monde numérique positif que nous souhaitons tous.

Pleinement conscients de notre impact sur la société et le monde qui nous entoure, par le biais de nos développements d’outils digitaux, nous nous engageons chez Plan.Net à respecter 5 principes d’un numérique positif :

  1. Se poser la question non plus des utilisateurs – ces personas parfois désincarnés qui ont envahi les méthodologies – mais des humains qui sont exposés et impactés, parfois indirectement, par les outils que nous concevons.
  2. Interroger l’impact écologique de nos actions et de nos architectures, et réduire celui-ci dès que cela est possible.
  3. Imaginer un monde numérique ouvert, accessible et interopérable, qui prend en compte les particularités d’usage de chacun et qui laisse une place aux outils libres ainsi qu’aux alternatives déconnectées pour ceux qui le souhaitent.
  4. Cesser de penser que le digital est LA solution à chacun des problèmes et savoir revenir en arrière, proposer des outils parfois plus simples et moins impactant quand ceux-ci sont suffisants.
  5. Ne jamais s’arrêter de penser positivement les outils numériques – dans la lignée de la volonté de diffusion et de construction de communs des pionniers du Web – tout en gardant conscience des limites et des effets néfastes de ceux-ci

En 2021, nous pouvons ainsi continuer d’être fiers de travailler dans une agence numérique et apporter notre pierre – modeste – à la construction d’un monde digital plus juste, inclusif et réellement utile.

C’est ça, être une agence numérique positive.

Dans une année 2020 riche en évènements et en rebondissements, une question se fait de plus en plus saillante : celle de la construction d’un « Numérique positif ».

L’actualité technologique de l’été qui s’achève met, encore, à l’honneur les avancées et les inquiétudes qui entourent l’intelligence artificielle. On y parle en vrac de jeux vidéo et de voitures autonomes. Mais on y voit surtout l’occasion de rappeler une fois de plus que sans DATA, l’intelligence artificielle n’est finalement pas grand-chose.

Quand les immeubles sortent de terre…

D’abord, Microsoft Flight Simulator [1]. Le légendaire simulateur de vol est revenu cette année dans une nouvelle édition après quelques années d’absence. Et cette version permet de survoler l’intégralité du globe terrestre aux commandes de l’avion de votre choix. Pour arriver à cette prouesse – la modélisation de la Terre entière – Microsoft s’est basé sur les données géographiques disponibles dans l’Open Street Map Project [2] – un projet cartographique collaboratif mondial qui concurrence ouvertement les applications de Google et d’Apple.

Cette utilisation d’une base collaborative et open-data a permis aux développeurs du jeu de générer rapidement et à moindre coût l’ensemble des décors qui leur étaient nécessaires. Avec toutefois quelques surprises. Ainsi, les joueurs survolant Melbourne, en Australie, ont eu la surprise de découvrir dans les faubourgs de la ville une tour de plusieurs centaines de mètres de hauteur, là où n’existent dans la réalité que de bien classiques pavillons de banlieue [3]. La faute à… une faute de frappe. L’un des contributeurs d’Open Street Map aura, peu de temps avant la récupération des données par Microsoft, complété les données de ce quartier de Melbourne et indiqué que l’un des bâtiments comporte 212 étages au lieu de… deux.

Une simple erreur, certes, mais une erreur qui n’a pas été détectée par l’intelligence artificielle chargée de créer l’ensemble des décors du jeu. D’ailleurs, l’utilisation de celle-ci a également fait l’objet de critique de la part de nombre de joueurs. En effet, pour l’IA de Microsoft, un bâtiment est un bâtiment comme un autre, et un pont et un pont comme un autre, quels que soient son importance et son aspect patrimonial. Ainsi, le Palais de Buckingham à Londres s’est vu doté du même look qu’un immeuble de bureau quelconque [4], et le pont du port de Sydney a perdu ses célèbres arches [5]. Des maladresses qui seront corrigées prochainement par les concepteurs du jeu, mais qui montrent bien les limites d’une IA dans la reproduction de la diversité terrestre.

… et que les voitures freinent toutes seules

Plus inquiétante est l’expérience menée par des scientifiques israéliens au cours du mois d’août. A l’aide d’un drone équipé d’un projecteur, ceux-ci ont réussi à tromper les capteurs d’une voiture autonome de type Tesla [6]. En projetant l’image d’un piéton ou d’une autre voiture, ils ont ainsi provoqué un freinage d’urgence de la part du véhicule. Mais plus grave, en projetant des lignes au sol, ils ont réussi à faire dévier la Tesla – alors en mode autonome – de sa trajectoire initiale. On peut imaginer à partir de cette expérience tout type de manipulation de l’intelligence artificielle qui conduit le véhicule : de nouveaux panneaux, des limitations de vitesse fantaisiste et pourquoi le « masquage » de certains éléments réels de l’environnement.

Tromper les capteurs d’une voiture autonome n’est pas une idée nouvelle. Un artiste anglais, James Bridle, avait déjà imaginé en 2017 un Car Trap [7], un cercle qui prendrait au piège les véhicules autonomes et les empêcherait de s’échapper. Une vue d’artiste qui révèle les lacunes du système.

Une IA, ça ne doute pas

Ces deux expériences ne sont que des extraits de l’actualité qui a entouré l’IA au cours des derniers mois. Elles ne reflètent pas, par exemple, les progrès enregistrés par les chercheurs dans les domaines médicaux grâce aux programmes d’intelligence artificielle. Mais, sans invalider la notion même d’IA, elles nous font nous poser quelques questions cruciales pour la maîtrise de cette technologie qui semble appeler à dominer nos vies.

Qu’est-ce qui fait, pour une intelligence artificielle, la véracité d’une donnée ? Le moteur de rendu de Microsoft Flight Simulator ne s’est pas posé la moindre question avant de représenter une tour de 212 étages au milieu des faubourgs de Melbourne. Pas plus que l’intelligence artificielle de la Tesla quand elle a vu apparaître une silhouette humaine face à elle. Les intelligences artificielles, tout comme les algorithmes simples, ne sont pas conçus aujourd’hui pour s’assurer de la véracité, et encore de moins de la réalité, d’une donnée. Ils sont conçus pour traiter des données en entrée et en déduire le comportement le plus adapté : quelle texture appliquer à un immeuble, dans quelle direction aller, etc.

Que se passe-t-il donc quand la donnée qui leur est fournie est fausse ? Volontairement ou non. Quand une erreur s’est glissée dans un fichier ? Quand une manipulation a été faite avec une intention peu louable ? Ou simplement lorsqu’une information est manquante et que la Data ne permet pas une prise de connaissance complète de l’environnement ?

Et l’état, les intelligences artificielles dont on parle régulièrement ne détectent bien souvent pas ces erreurs ou ces manipulations – sauf si elles sont conçus spécifiquement pour cela comme celles qui traquent au quotidien les deepfakes [8] – même si elles mènent à des aberrations. Une IA, par définition, ne doute pas. Il est donc crucial, à mesure que les algorithmes prennent de la place dans notre quotidien, de savoir qui maîtrise la réalité et de s’assurer – faute d’instiller du doute chez les robots – de la fiabilité de toutes les informations utilisées par nos futurs systèmes.

La leçon vaut pour tout système qui entend traiter automatiquement de l’information. A l’heure où il n’a jamais été aussi facile de créer du contenu – qu’il s’agisse de faux profils sur les réseaux sociaux [9] ou de faux articles dans les revues scientifiques [10] – et parfois d’articles créés à l’aide d’une intelligence artificielle [11] – il convient d’être de plus en plus prudent avant d’affecter un traitement à une données. La vérification des données, mais également leur certification, doit devenir un point crucial de la politique numérique des entreprises. A défaut, aucun déploiement d’intelligence artificielle ne pourra se faire sans danger.

Alors, si vous ne voulez pas rater la révolution de l’IA, commencer par maîtriser celle de la DATA.

Le mois dernier, j’ai tué deux sites internet.

Deux blogs, dédiés au marketing et aux nouvelles technologies. Plus de 500 articles si ma mémoire ne me trompe pas. Plus de 5 années d’écriture sur les évolutions de nos métiers. Quelques giga-octets d’images et de base de données qui, il faut bien l’avouer, n’intéressaient plus réellement les foules.

Deux noms de domaine qui seront récupérés rapidement, n’en doutons pas, par quelques mineurs d’audience et chasseurs de liens.

Le mois dernier, j’ai tué deux sites Web.

Et c’est l’occasion de se poser la question de l’hygiène du Web et du rôle de notre environnement préféré dans la sauvegarde du savoir humain, mais aussi dans la sauvegarde de la planète.

CONSERVER LA MÉMOIRE DU MONDE

L’ambition de faire du Net une bibliothèque universelle ne date pas d’hier. Elle date même de bien avant son invention. Déjà, dans les premières ébauches de ce qui deviendra le Web – qu’il s’agisse du Memex [1] de Vannevar Bush dans les années 1940 ou de la volonté de mise en réseau des ordinateurs de l’ARPANET [2] – il y a cette volonté de rendre le maximum d’informations disponible à tous par l’intermédiaire des outils informatiques. C’est le Web de Tim Berners-Lee [3] en 1990 va permettre de concrétiser enfin cette ambition.

Aujourd’hui, tout se numérise, tout se sauvegarde et tout se partage, du plus noble des contenus au plus insignifiant des textes. S’il fallait lister les initiatives d’enregistrement de la connaissance humaine, un blog entier n’y suffirait pas. Dans la prolongation des travaux d’archivage initiés les siècles précédents, le Net donne accès aujourd’hui à une grande partie de la connaissance humaine.

On y trouve des textes, bien entendu, allant de l’ensemble des archives déjà numérisées un peu partout dans le monde – on ne citerait que Gallica [4] pour les archives françaises –aux partages de connaissance de la Wikipédia [5]. On y trouve des images, via là encore les fonds des plus grandes bibliothèque (par exemple, la bibliothèque du Congrès américain [6]) mais également les contributions régulières des inconnus sur les plateformes de partage d’images comme Flickr ou Instagram. On y trouve de la vidéo et du son… bref, on y trouve de tout.

madelen, la plateforme de VOD de l’INA.

Le Net, on le sait, a contribué à sauver bien des contenus et à rendre accessibles à tous bien des témoignages du génie humain. Des films oubliés retrouvent une nouvelle vie grâce au site Archives.org [7]. Les collections des grands musées mondiaux sont accessibles au plus grand monde, et sans se déplacer, grâce aux initiatives de Google [8]Et le Net s’archive également lui-même, pour ne rien perdre de son histoire grâce à la désormais célèbre WayBack Machine [9].

ET PARFOIS, OUBLIER…

Bien entendu, il y a parfois des couacs. Comme les musées [10] et les bibliothèques réelles peuvent brûler, les bibliothèques digitales peuvent elles aussi disparaître, volontairement ou non.

Ceux qui comme moi ont travaillé il y a longtemps chez un hébergeur – gratuit pour ma part – se souviennent de l’angoisse à la perte d’un serveur et de l’ensemble des données qu’il pouvait contenir. On a vu ainsi, chez MultiMania, des centaines de sites Web personnels s’effacer suite au crash d’un disque dur. Et même si le parallèle avec les disparitions majeures d’archives culturelles [11] est difficile à soutenir, ces contenus sont bien une part de la mémoire collective de l’humanité.

Au cours des dernières années, le Net a procédé à bien des suppressions de contenu, volontaires ou non. Ainsi, Tumblr a supprimé de nombreux blogs et photos lors de sa session par Yahoo! en 2018, suite à un changement de ses règles de modération et au refus d’héberger des contenus jugés pornographiques [12]. Myspace, le réseau star des musiciens qui a contribué à révéler, notamment, les Arctic Monkeys, a perdu en 2019 la quasi-intégralité des enregistrements qu’il hébergeait avant 2012 [13].

Les couacs existent. La mémoire digitale comme toute mémoire est faillible.

MARIE KONDO ET LES RÉSEAUX SOCIAUX

On ne s’y trompera pas. Si elle connaît quelques couacs, l’entreprise globale de sauvegarde du savoir de l’Humanité que représente internet est salutaire.

Mais jusqu’où est-il pertinent de conserver ou de donner accès à des archives ? La capacité sans limite du monde virtuel – sans limite car non matériel – fait qu’on ne se pose plus la question du « raisonnable ». Puisque tout est enregistrable, tout doit être enregistré. Puisque tout peut être consulté, tout doit être consultable.

On arrive alors à un paradoxe : l’information ne meurt plus.

Auchan sur YouTube, 8 ans de vidéos disponibles en ligne.

On parlera bien entendu des boîtes emails [14] qui ne désemplissent plus, mais également des comptes sociaux des grandes entreprises qui conservent, ad nauseam, une trace du passé. C’est ainsi qu’une chaîne YouTube comme celle des hypermarchés Auchan [15] garde trace des recettes de cuisine postées il y a plus de 8 ans. Certes, les recettes de Cabillaud aux vapeurs d’aneth et carottes râpées [16] sont intemporelles. Mais 8 ans après ces publications, le compte Auchan a vu passé des centaines d’autres contenus… et il y a peu de chance que les algorithmes de la plateforme vidéo de Google fassent aujourd’hui remonter cette vidéo en particulier face aux centaines d’autres recettes de cabillaud vapeur [17] qui occupent l’inventaire de YouTube. Le cabillaud d’Auchan fait partie de ces archives oubliées, qui ne servent a priori plus la marque – même si les statistiques peuvent me contredire – mais qui occupent toujours de l’espace quelque part dans un data center. Une sorte de décharge oubliée.

A l’instar de ce qu’à préconiser un temps Marie Kondō [18], ne serait-il pas pertinent de ne conserver sur les réseaux sociaux des marques uniquement les 3 contenus qui procurent réellement du bonheur ?

ÉCRIRE, MAIS PAS POUR LES HUMAINS

Mais il y a plus vicieux, il y a également le contenu qui, même périmé, est conçu pour attirer. On le sait, les algorithmes des moteurs de recherche et des réseaux sociaux s’alimentent de contenu. Plus ces contenus sont nombreux, plus ils peuvent avoir de poids dans les logiques de classement et de mise en avant des sites. C’est bien entendu loin d’être le composant principal d’un bon SEO ou d’une bonne visibilité sur les réseaux sociaux, mais c’est un argument non négligeable pour bien des marques : un site à l’inventaire important apparaît mieux dans Google qu’un site ne proposant qu’une vingtaine de pages.

C’est particulièrement vrai pour les sites de e-Commerce, qui veillent donc à renforcer leur contenu et leur inventaire pour répondre aux jeux de requêtes les plus vastes possible. Ainsi, Cultura – l’enseigne française de biens culturels et de loisirs créatifs – propose sur son site de nombreux livres dont certains sont épuisés depuis longtemps. Pour exemple :

Cultura propose à la vente des livres en rupture de stocks depuis longtemps

Un ouvrage publié en 2002 [19]. Une maison d’édition disparue en 2013 [20]. Une version de logiciel produite en 2001 et une plateforme dont l’abandon a d’ailleurs été annoncé en juillet 2017 par Adobe [21]. Cet ouvrage, et beaucoup d’autres, n’a que peu de chance d’être commandé en ligne, et encore moins de chance d’être livré en boutique. Il est épuisé et passé au pilon depuis longtemps. Cultura ne proposant pas, au contraire d’Amazon, de marketplace, il ne sera pas non plus vendu d’occasion par un tiers. Quel est alors l’intérêt de proposer, dans son catalogue, de tels contenus, si ce n’est proposer aux moteurs de recherche un maximum de contenus ?

On a déjà détaillé par le passé les stratégies du Bruit [22], consistant à produire du contenu en masse afin de satisfaire les algorithmes des moteurs de recherche et des réseaux sociaux, mais il y a autre chose derrière ces quelques exemples : il y a une incapacité du Net à se réguler.

BEAUCOUP DE NEGLIGENCE

Bien entendu, tout n’est pas que mauvaise intention parmi les quelques exemples cités plus haut. Une vidéo postée il y a 8 ans sur les réseaux sociaux, on l’oublie vite. Elle se trouve rapidement poussée tout en bas de scroll par de nouveaux contenus, plus à la mode, plus performants, plus en phase avec la marque. Le travail de production de contenu à destination des plateformes sociales est déjà si chronophage qu’on hésite à accuser les pauvres Community manager de ne pas nettoyer derrière eux.

De même, les gestionnaires des bases de données – comme celles où s’indexent les publications des principales maisons d’édition – sont là avant tout pour garantir la fraicheur du catalogue, la prompte disponibilité des futurs hits de la rentrée littéraire. Difficile de trouver le temps de nettoyer les références caduques.

Il y a beaucoup de négligence : la négligence de ne pas penser aux conséquences de ses contenus – comme on ne pense pas à la consommation d’eau en se brossant les dents – et la négligence de ne pas penser des systèmes prenant en compte leur propre fin de vie.

Il y a, à bien une réfléchir, une discipline de l’UX à imaginer : l’UX de l’hygiène digitale.

Elle consisterait à concevoir, dès les premiers pas d’un produit numérique, la façon dont celui-ci cessera d’impacter son environnement. L’effacement des données, la réduction des accès aux références disparues, la gestion des historiques inutiles… une discipline qui

MAIS AUSSI UN PEU DE MALVEILLANCE

Mais la négligence n’explique pas tout. L’industrie digitale a horreur du vide, des domaines inutilisés ou des contenus caduques. L’industrie numérique ne jette rien. Ou en tout cas pas volontairement. Tous ceux qui ont, il y a dix ou vingt ans créés des sites Internet peuvent témoigner : les sites Web ne meurent pas.

L’invasion des sites zombies

Ces deux domaines qui j’ai abandonnés le mois dernier, gageons qu’ils ne sont pas restés inutilisés longtemps. Leur historique, leur ancienneté aura attiré quelques Growth Hacker ou quelques négociant indépendant de trafic. Ces deux sites vivent désormais leur vie comme, non pas des projets éditoriaux, mais des espaces digitaux destinés à draguer des liens vers d’autres sites Web, et à diffuser de la publicité vendue au clic ou à la vue. Ils aident Google à rester indéboulonnable et à nourrir un écosystème numérique qui tourne en boucle.

Les sites web morts permettent à d’autres sites web morts de ressusciter et à générer en boucle cet Internet du Bruit.

Est-ce que cela en vaut la peine ? La logique capitaliste de la publicité digitale ne se pose pas la question : le Web vu par les référenceurs et les marketeurs n’est qu’une bulle en croissance. En croissance de domaine, en croissance de page, en croissance de publicité, en croissance de revenus… et malheureusement en croissance de stockage.

L’HYGIÈNE DU NUMÉRIQUE, LA RESPONSABILITÉ DE TOUS

Les préoccupations sont nombreuses aujourd’hui autour de l’impact de l’économie numérique sur le dérèglement climatique. Les doutes eux ne sont plus permis. On le sait, l’industrie numérique dans son ensemble – loisir et professionnel, matériel et logiciel… – pollue aujourd’hui plus que le transport aérien [23]. L’impact de nos outils digitaux en France sont l’équivalent de 6,2% de la consommation d’énergie de l’hexagone et de plus de 5% de ses émissions de gaz à effet de serre [24].

Il est inconscient, voire irresponsable, de penser que nos petits sites Web et nos vidéos ne sont qu’une goutte d’eau dans la pollution globale que subit la planète. L’industrie numérique, c’est aujourd’hui une foule de professionnels qui produisent en boucle du CO² pour une meilleure visibilité sur les moteurs de recherche et des vues supplémentaires dans les réseaux sociaux.

A l’heure où des mesures [25] pour lutter contre l’impact écologique du numérique commencent à être évoquées, comme la fin des forfaits de connexion illimités [26], il serait peut-être temps que l’industrie libérale du digital prenne des mesures d’hygiène pour sa propre sauvegarde. Et sans parler de décroissance, qu’elle apprenne à tout le moins à concevoir des outils digitaux propres et à nettoyer derrière elle.

C’est devenu une habitude depuis plus de vingt ans. Google annonce régulièrement des mises à jour de son algorithme de classement des sites Web et édicte tout aussi régulièrement des recommandations quant à la façon de créer, maintenir et faire vivre les sites Web. Parfois, ces recommandations concernent le contenu, d’autres fois la technique ou la façon dont les sites Web sont liés entre eux par l’intermédiaire de liens.

Les dernières communications de Google, fin mai, suivent une tendance de fond dans les recommandations du moteur : faire de l’UX, c’est désormais aussi faire du SEO.

A la découverte des Core Web Vitals

Retour sur lannonce de fin mai. Google a rendu disponible dans sa Search Console un rapport dédié à ce qu’il appelle les Core Web Vitals, trois nouvelles données qui évaluent la vitesse de chargement d’un site et surtout la façon dont celui-ci se comporte à l’écran face aux internautes. Ces trois nouvelles données s’ajoutent à l’estimation du temps de chargement des pages (FCP, First Content Paint) qui existait déjà dans différents outils fournis par Google.

Si l’on veut résumer, et comprendre, ce que sont désormais les Signaux Web Vitaux pour Google, voici ce qu’il faudrait retenir :

  • FCP – First Content Paint : premier indicateur, il évalue le temps de chargement initial de votre page, c’est-à-dire le temps que met à apparaître à l’écran le premier élément graphique, qu’il s’agisse de texte, d’image ou de n’importe quel autre type d’élément. Avant ce premier affichage, le visiteur de votre site ne voit sur son écran de smartphone qu’une page blanche, et peut donc légitimement se demander si votre site fonctionne.
  • FID – First Input Delay : en complément, cet indicateur mesure le temps que met à apparaître le premier élément interactif de votre page, lien ou champ de formulaire. Il mesure donc, en complément, le temps d’inactivité potentiel de l’internaute. Avant cet événement, le visiteur de votre site doit se contenter de regarder l’affichage des éléments mais ne peut cliquer pour afficher un contenu plus précis ou accéder à une autre page de contenu. Autant de temps perdu si votre visiteur est décidé sur les actions qu’il veut mener.
  • LCP – Largest Contentful Paint : avec cet indicateur, Google continue son exploration du chargement des pages. Il mesure ici le temps que met à apparaître à l’écran le contenu qu’il juge le plus important sur celle-ci. Il s’agit en général d’une photo, mais cela peut également être une vidéo ou un paragraphe de texte particulièrement long. Le chargement de cet élément peut donner à l’internaute que la page est complète, ou en tout cas qu’il peut commencer à interagir sans manquer une information cruciale pour la suite de son parcours
  • CLS – Cummulative Layout Shift : dernier indicateur, il mesure la stabilité de la page. Vous l’avez tous vécu, rien n’est plus énervant que ce moment où vous vous apprêtez à cliquer sur un lien et que le bandeau d’acceptation des cookies fait brusquement bouger. Au mieux, il ne se passe rien, au pire, vous avez alors cliqué sur une bannière publicitaire. Google privilégie les pages « stables », c’est-à-dire dans lesquelles aucun élément ne change de place au cours du chargement.

On le voit bien, ces quatre indicateurs ne sont pas uniquement techniques – même s’ils dépendent énormément de l’optimisation techniques des sites Web. Ils concernent avant tout l’expérience utilisateur.

Pour vous donner une idée de l’impact de ces indicateurs sur l’expérience utilisateur, le rapport PageSpeed Insights évolue d’ailleurs et présente désormais un aperçu visuel du chargement des pages, sous forme de vignettes. Une bonne façon de voir les délais de chargement de chaque élément de vos pages.

Google l’a annoncé, les trois nouveaux indicateurs communiqués fin mai – FID, LCP et CLS – sont aujourd’hui fournis à titre indicatifs. Ils entreront toutefois dans l’algorithme de Google dès 2021, une bonne raison pour travailler leur optimisation dès à présent !

Travailler l’UX d’avant l’UX

En focalisant ses prochaines mises à jour d’algorithme sur ces quatre indicateurs, et sur quelques autres révolutions comme l’abandon progressif de la technologie AMP (Accelerated Mobile Page), Google met en lumière un espace qui était jusqu’ici le trou noir de l’UX.

Les habitués des méthodes d’amélioration de l’expérience utilisateur ne s’étonneront pas du constat qui suit : aujourd’hui, l’ensemble des pratiques qui visent à travailler cette expérience sur une page Web ou un écran d’app mobile se concentrent avant tout sur des wireframes et sur des maquettes. C’est-à-dire sur des représentations finies de l’environnement dans lequel évoluera l’internaute. On y discute, pour la partie UI, de la taille des boutons ou de l’accessibilité des menus de navigation, et pour la partie UX de la logique de l’organisation de l’information ou de l’évidence des enchaînements d’écran dans des process longs. Et c’est déjà énorme.

Mais ce qui se passe avant l’affichage de la page complète, de la maquette finalisée, est souvent laissé aux bons soins de l’IT. C’est une question de performance technique, de rapidité des serveurs, de temps de chargement. Et si tout le monde se met d’accord pour dire qu’une page au chargement rapide contribue à l’excellence de l’expérience utilisateur, peu nombreux sont ceux qui se demandent déjà ce que ce « rapide » veut réellement dire.

Google a d’ailleurs longtemps réduit le chargement de la page à des questions purement techniques. Les outils d’audit fournis par le moteur de recherche, et notamment le PageSpeed Insight, ont avant tout fourni à la communauté SEO des indicateurs et des recommandations purement techniques : réduire la taille des fichiers images, alléger le Javascript et les CSS, diminuer les appels à des serveurs externes. Il n’était pas question ici de confort, mais de performance.

Les Core Web Vitals exposés fin mai sont un changement de paradigme dans la perception de la performance par le moteur de recherche. Les rapports du PageSpeed Insights changent d’ailleurs de forme pour l’occasion.
S’ils restent des indicateurs chiffrés – on ne change pas une culture d’ingénieur aussi facilement – ils se concentrent non plus sur la performance pure, mais sur le ressenti du chargement de la page, en imaginant des questions d’internautes telles Puis-je enfin cliquer ? ou Tout le contenu est-il affiché ? Des questions qui parlent bien de l’expérience utilisateur.

Ces nouveaux critères vont donc obliger certains spécialistes de l’UX à étoffer leurs analyses, et à se pencher sur l’Expérience Utilisateur d’avant l’Expérience Utilisateur, une sorte de perception globale du Web incluant des éléments qui n’ont plus de rapport direct avec l’ergonomie. Une façon de réintégrer de la technique à l’UX et de faire – enfin – sauter quelques cloisons.

Il reste donc six mois pour envisager les bonnes mesures.

Tom Cruise face à ses écrans dans Minority Report

Réfléchissez bien… Faites le tour des films et séries de science-fiction que vous avez vu au cours des dernières années. N’ont-ils pas un point commun ?

Bien sûr que si : les écrans transparents ! Regardez bien, ils sont partout !

C’est une gigantesque interface transparente que manipule Tom Cruise afin de prévenir les crimes dans Minority Report. C’est une interface tactile invisible qu’utilisent Tony Stark ou Black Widow pour mettre au point les tactiques d’attaque des Avengers. Et ce sont encore des écrans transparents qui permettent d’explorer la planète d’Avatar ou de contrôler les robots-boxeurs de Real Steal.

Aussi certainement que les voitures volantes marquaient la science-fiction des années 1980, l’écran transparent est aujourd’hui la signature du futur dans l’imaginaire collectif.

Mais dans la réalité, où en sommes-nous de ces interfaces transparentes ?

On a beau fouiller salles de bains et bureaux, si la révolution « tactile » a bien eu lieu, les écrans transparents n’ont pas encore envahi notre quotidien.

Ce n’est pourtant pas la technologie qui est en cause. Si l’on en croit les fabricants de tous bords, les interfaces transparentes sont aujourd’hui à portéé de… doigts. Des preuves, les interfaces tête haute ont commencé à équiper les voitures depuis quelques années. Elles permettent notamment de suivre la vitesse de son véhicule sans pour autant quitter la route des yeux, et surtout sans obstruer la vue du conducteur. De nombreuses marques, dont Jaguar ou Range Rover, ont travaillé à des affichages plus évolués, permettant d’afficher différentes informations sur l’environnement (les angles morts notamment) ou de substituer le pare-brise à l’écran du GPS. Mais on ne parle là que d’affichage, pas réellement d’interactivité.

Mais quand il s’agit de « cliquer » ou de manipuler des objets sur une surface transparente, le pare-brise n’est sans doute pas le meilleur lieu d’expérimentation, loin s’en faut. Alors, on imagine des vitres interactives à l’arrière du véhicule, sortent de tablettes transparentes permettant aux enfants de dessiner ou de zoomer sur le paysage lors de longs trajets. Toyota travaille notamment à ce concept depuis 2012 , sans qu’on l’ait vu pour l’instant dans nos campagnes. Même le célèbre MIT s’est penché sur cette révolution .

S’il faut parler d’interfaces « vitrées », la révolution a pour l’instant plutôt lieu dans la salle de bain. Les miroirs connectés ont été l’une des grandes innovations du CES 2019 à Las Vegas. Le principe est simple : à l’instar d’un iPhone, les miroirs sont connectés à des stores d’application qui permettent de vérifier les dernières actualités, la météo ou les notifications des réseaux sociaux tout en se brossant les dents. Cela ne garantit pas forcément une bonne hygiène bucco-dentaire, mais permet sans doute d’éviter que son Samsung Galaxy ne tombe malencontreusement dans le lavabo. Les tutoriels commencent même à fleurir sur YouTube, expliquant comment transformer un ordinateur Raspberry Pi ou une borne Alexa en « miroir intelligent ».

Consulter la météo ? On est quand même loin de Minority Report.

Et c’est peut-être que finalement la transparence n’est pas à chercher du côté des écrans. A bien y réfléchir, la technologie la plus prometteuse en termes de transparence n’est pas le verre… mais les projecteurs et les hologrammes. Et là, certaines expériences sont impressionnantes. On pensera, tout d’abord, aux écrans projetés des montres connectées, comme le Cicret Bracelet développé par une startup française et qui transforme votre avant-bras en un écran de smartphone. On pourrait également penser aux tests effectués par quelques entreprises, comme Thyssenkrupp, pour faciliter les opérations de maintenance de ses équipes. Equipés de casque Hololens de Microsoft, les opérateurs de ce fabricant d’ascenseurs peuvent ainsi voir, en superposition de leur intervention, les instructions de maintenance nécessaires.

Et pour compléter cela, on pensera enfin à Soli, le projet de Google destiné à interpréter nos gestes et à les transformer en commandes pour les smartphones. Après tout, nous utilisons déjà des interfaces gestuelles dans les jeux vidéo. Elles y sont simplement un peu moins sophistiquées. Alliée à des hologrammes ou à un écran projeté, on s’approche doucement de Minority Report.

Concrètement, elle est où la transparence ?

Les technologies de la transparence, plus ou moins avancées, sont donc là. Pourquoi, alors que les prototypes évoqués ici datent pour certains de 2012, ne vit-on pas au quotidien dans un univers digne d’Iron Man ?
En fait, en l’état des usages, il y a aujourd’hui peu de chance que nous voyons débarquer des écrans transparents sur nos smartphones et ordinateurs.

Pensez-donc à la façon dont vous utilisez aujourd’hui ces écrans : Netflix ? Instagram ? Et des emails professionnels ? Comment réagiriez-vous si le clavier sur lequel vous tapez vos SMS laissez voir votre pantalon ou le sol du métro ? Si l’écran de votre TV 4k prenait légèrement la teinte de votre papier-peint plutôt qu’un noir franc pendant les scènes de nuit des meilleures séries d’horreur ? Cela ne semble pas pratique. Car si les technologies existent et font vibrer les salons de l’innovation, nous n’avons aujourd’hui pas l’usage pour les écrans transparents. Nous voulons avant tout de belles images, et cette course à la qualité n’est compatible qu’avec un environnement visuel totalement maîtrisé : un fond noir ou un fond blanc. Ici la transparence n’est pas de mise.

Reste que les expériences de Jaguar, Toyota ou Tyssenkrupp ouvrent la voie à des usages précis : l’information ou la formation professionnelle dans un cadre maîtrisé, l’assistance à la conduite ou à la manipulation… En fait, des usages cadrés et souvent professionnels où les écrans ne doivent pas « distraire » une opération délicate.

Dans ces usages, la transparence fonctionne en fait déjà. La science-fiction s’est finalement moins trompée sur ça que sur les voitures volantes.

La crise du Covid-19 va changer bien des choses dans nos quotidiens. Et au-delà du déconfinement à venir, et de ses aspects pratiques, notre vie dans les prochains mois, va surtout être marqué par une relation particulière à la distance.
Travailler à distance, éviter la promiscuité, maintenir une distance sanitaire dans les espaces publics… ces comportements émergeant constituent un nouveau terrain d’expérimentation pour les outils numériques.

Travailler à distance, c’est possible !

Pour beaucoup d’entre-nous, qui travaillons dans les secteurs de la communication, du marketing et du numérique, le quotidien a déjà changé.

Depuis la mise en place du confinement au milieu du mois de mars, de nombreuses entreprises se sont vues contraintes de mettre en place une politique de télétravail. Et si certaines étaient préparées depuis longtemps à ces méthodes de collaboration à distance, pour d’autres le déploiement d’outils dédiés et l’empiétement de la sphère professionnelle au sein du domicile ont été une épreuve. Trouver les espaces, sanctuariser les temps – surtout quand l’école impose elle aussi les télé-devoirs – sont des casse-têtes pour bien des collaborateurs et un défi pour les organisations.

Zoom, l’illustration parfaite de nos changements d’habitude au travail

Mais les témoignages sont là, portés et diffusés sur LinkedIn comme autant de preuves de la vaillance et de la résilience de l’industrie de la communication : ça marche. On ne compte plus les écrans MS Teams ou Zoom montrant les collaborateurs rassemblés autour de la même table de réunion virtuelle, les apéros à distance entre salariés pour garder le contact, ou les routines partagées pour conserver le moral et la santé.

Certains d’entre nous ont vite pris des habitudes. Et dans le monde d’après, ce sera sans doute au tour des entreprises de s’adapter à celles-ci. Aura-t-on toujours besoin de ces grands open-spaces qui rassemblent régies ou agences ? Les grandes réunions auxquelles nous assistions régulièrement seront-elles encore indispensables ? Ne gagnerait-on pas un temps précieux à ne pas se déplacer chaque jour jusqu’aux bureaux ? Ces questions seront soulevées, dès l’été, par nombre de collaborateurs. Et elles vont nous obliger à penser de nouvelles façons de travailler dans lesquelles le numériques prendra, chez tous, la part qui lui est promis depuis tant d’années.

Quelle expérience de la distance en boutique ?

Mais cette nouvelle relation à la distance ne va pas concerner que les collaborateurs des entreprises. Demain, les clients eux-aussi feront part de nouvelles attentes et auront besoin de nouveaux repères.

Amazon Go, le magasin sans caisse ni file d’attente, va faire des émules post-confinement

Premier impacté, l’accueil en magasin va changer. Pour nombre d’entre-nous, la promiscuité des rayons, les files d’attente en caisse, les cabines d’essayage, ne vont être qu’un souvenir. Et le passage à un shopping où chaque acte se mesure en mètre va demander de l’organisation et des outils : les techniques héritées de la livraison ou du drive font aujourd’hui des émules dans le secteur du livre ou de la cosmétique. Demain, les applications de prise de rendez-vous, et en conséquence le commerce personnalisé, deviendront légions.

Les soldes ou le Black Friday – ces grands messes consuméristes – vont devoir être drastiquement repensées. Il semble hautement improbable que demain, les consommateurs se tassent dans des magasins en recherche de quelques habits en soldes, se frôlent et plongent leurs mains en même temps dans des bacs d’objets divers. Sans verser dans l’utopie hygiéniste, ces scènes de consommation à outrance, ou en tout cas leur aspect visible, seront sans doute bannies de notre quotidien.

Affluence, l’une des applications qui permet aujourd’hui
de connaître l’occupation et le temps d’attente de différents lieux publics.

Pour orchestrer en boutique la distanciation que l’on nous recommande dans les contacts quotidiens, le numérique semble aujourd’hui une des pistes. Le déploiement d’applications de shopping à distance, de prise de rendez-vous, mais également de gestion des flux en magasin sont autant de pistes que devront être explorées dans les semaines à venir.

Délocaliser l’information

La relation au consommateur n’est pas tout. Les relations entre entreprises, et notamment les métiers plus spécialisés dans le B2B, vont eux également subir une petite révolution.

Les freins que nous avons aujourd’hui vis-à-vis du contact et de la proximité ne cesseront pas dans la sphère professionnelle. Rendez-vous commerciaux, séminaires, grands événements ou encore visites d’entreprises vont devoir se réinventer. Et si pour certaines tâches, les alternatives sont simples à trouver – nous avons tous fait au cours des dernières semaines des rendez-vous client sur Skype ou des ateliers de réflexion dans Zoom – pour d’autres moments de la vie d’entreprise, la tâche s’avère plus ardue.

Travis Scott en live sur Fortnite, une idée des évènements de demain ?

La virtualisation – même si elle amène parfois une déshumanisation – semble être pour un temps la solution. Dès le début du confinement, des plateformes comme Second Life ont suscité un regain d’intérêt. Le secteur de l’événementiel a notamment multiplié les expérimentations. Parmi celles-ci, on retiendra les concerts virtuels de Lady Gaga ou des Rolling Stones organisés sur YouTube, celui de Travis Scott donné sur Fortnite, ou encore le salon Laval Virtual dédié à la réalité virtuelle organisé à distance dans un Laval Virtual World. Ces solutions, purement exploratoires, dessinent une partie de l’événementiel du futur.

La visite virtuelle d’usine, comme celle lancée par Janssen en 2019,
est-elle une solution à la crise de distance à venir ?

La réalité virtuelle, et surtout les casques Oculus en consort auront sans doute leur rôle à jouer dans cette relation business à distance. Sans doute pas dans les relations personnelles – même si on peut imaginer des conf-calls immersives, elles semblent terriblement contraignantes face à nos quotidiens actuels – mais dans la dématérialisation et la virtualisation des lieux. Comme les laboratoires Janssen l’ont fait en 2019, et comme le secteur immobilier l’expérimente depuis des années, il est facile aujourd’hui d’imaginer des visites virtuelles d’usines, d’expliquer des processus à distance et de former les gens, même de loin.

L’usine virtuelle de Safran, modèle du futur ?

La réalité virtuelle s’imbrique aujourd’hui dans le réel, à tel point que chez Safran, il n’est plus besoin de construire un prototype d’usine pour le tester, ni d’envoyer dans un quelconque local pour apprendre de nouvelles méthodes de travail. On virtualise tout. On travaille, échange et conçoit à distance.

Bannir le contact

Il est des gestes du quotidien pour lesquels nous devrons toujours nous déplacer. Et il est des gestes qui nécessiteront toujours une grande proximité. Ainsi, quand nous irons de nouveaux acheter des livres ou des produits de beauté, comment se passera le contact nécessaire à la transaction ?

La crise sanitaire actuelle réveille les fantasmes d’une société sans argent, ou toute transaction financière est dématérialisée. Mais même si certains pays semblent tendre vers cette utopie – les transactions physiques ne représentent plus que 2% des échanges en valeurs en Suède par exemple – le monde financier virtuel n’est peut-être pas pour demain. Ne serait-ce que parce que l’équipement ne peut pas toujours suivre : en 2019, 13% des Français ne possédaient pas de carte de paiement, 23% ne possédaient pas de smartphone.

La paiement sans-contact, la norme d’un monde Post-Covid ? Comme ici dans les transports en commun de Dijon, via la plateforme d’Open Payment de Keolis.

Pour autant, il faudra réfléchir demain à cette explosion du paiement sans contact, comme il est actuellement possible dans les petits commerces – sur un plafond d’ailleurs relevé à 50€ en ce début d’année – ou dans les transports en communs de quelques villes. Gageons également que la fin du contact voulu mènera à son lot d’expérimentations autour des magasins sans caisses et sans caissiers. On pense bien entendu à Amazon, même si le modèle est décrié, mais aussi – la boucle est bouclée – aux logiques d’abonnement mises en place par certaines librairies et aux drives des grandes surfaces. Des solutions qui encore une fois répondent à notre besoin de distance.

La technologie bien sûr… mais au service de l’humain

Les mois qui arrivent vont apporter de grands changements dans le comportement des utilisateurs. Ces mutations ont d’ailleurs déjà commencé, et se concrétisent dans notre quotidien. Marques, entreprises, agences… vont devoir être, plus que jamais, à l’écoute des attentes des utilisateurs en matière de sécurité, de services, mais également de transparence dans la communication.

Dans le monde d’après, la technologie ne sera pas une réponse simple aux nouvelles préoccupations. Elle ne sera qu’un élément d’un cocktail composé d’écoute de l’utilisateur, de respect de ses attentes – notamment en matière de vie privée, et le débat sur l’application StopCOVID montre combien ce sujet est sensible – et de souci environnemental toujours fort. Mais la technologie sera un élément indispensable de ce cocktail.

A nous de faire en sorte qu’il ne le rende pas amer.

Le Net a envahi notre quotidien, mais il doit encore évoluer pour devenir plus utile, mais aussi plus responsable.

De terrain de jeu pour geeks, Internet est devenu incontournable dans nos vies. Mais, alors qu’il y a 20 ans on se félicitait de l’ère d’ouverture culturelle et de partage qu’il allait provoquer, on l’accuse aujourd’hui de nous surveiller, travestir la vérité et de manipuler l’opinion.

Les technologies ont évolué à grande vitesse mais le Net pourtant n’a pas changé. Si on est passé du mail au snap, de la page Web à la story… les possibilités de rencontre, de partage, de découverte restent là, portées par des internautes friands de contacts et d’interactions.

Aujourd’hui comme hier, les outils digitaux rapprochent les utilisateurs, facilitent l’accès à la connaissance, améliorent l’expérience – et parfois la vie – des humains. Le monde connecté n’est peut-être pas féerique, mais il est loin d’être l’obscure dystopie qu’on dépeint souvent.

En 2020, les agences digitales doivent, plus que jamais, remettre à l’honneur un Digital utile et responsable, tout en gardant à l’esprit son impact sur les utilisateurs et sur la planète.

Avec leurs clients, elles peuvent développer des services réellement utiles aux internautes, citoyens, consommateurs ou collaborateurs. Elles doivent accompagner ces mêmes clients dans la maîtrise des enjeux du monde digital, l’appréhension de ses dimensions environnementale et sociétale, et l’identification de ses dérives possibles.

Être agence digitale en 2020, ce n’est plus seulement faire, c’est surtout faire grandir.

Aujourd’hui une agence digitale doit accompagner les marques pour une réelle démarche RSE intégrée : dématérialiser, mais aussi penser à la fin de vie des outils et des campagnes, aux données stockées sans raison ou aux sites qui ne sont plus visités. Se poser la question des bénéfices à long terme du remplacement de catalogues par des sites qui fonctionnent H24, pour des exploitations souvent ponctuelles. S’interroger sur les impacts et bilans carbone de ces outils, que peu considèrent aujourd’hui.

Une agence digitale, plus qu’aucune autre, doit questionner l’expérience client globale et créer des connexions utiles, fluidifier les démarches. Où est la priorité aujourd’hui : déposer 40 cookies sur son site marchand ou gérer au mieux les files d’attente ?

Une agence digitale doit accompagner la mise en oeuvre, mais surtout conseiller la stratégie de moyens. Plutôt qu’une nouvelle expérience de réalité virtuelle, n’est-il pas plus responsable d’investir dans une application de formation à la sécurité ? Et mieux servir l’engagement responsable de la marque et au final son image et ses ventes ?

Au-delà de leur expertise technique, les agences digitales doivent être des partenaires humains et responsables, et être aux premiers rangs pour construire un digital bénéfique pour tous.