(As We May Link, c’est une histoire du Web et de l’Hypertexte en 8 épisodes. Si vous avez manqué le début n’hésitez pas à reprendre au premier article, c’est ici : https://serviceplan.blog/fr/2021/09/as-we-may-link-la-blibliotheque-des-origines/.)

Cinquième épisode de notre série As We May Link. On s’était quittés la semaine dernière sur une note bien pessimiste, après avoir expliqué comment réseaux sociaux et moteurs de recherche avaient peu à peu réduit notre liberté de navigation sur le Web. Pourtant, en 2021, il est encore possible d’imaginer un avenir pour l’hypertexte, et même de nouvelles formes de navigation innovantes !  

Réalités augmentées

Quelles formes auront nos digressions culturelles demain ? En ces temps d’enthousiasme technologique, penchons-nous sur deux innovations qui changeront sans doute notre façon d’accéder aux contenus.

La première, et peut-être la plus évidente, c’est bien entendu la réalité augmentée. Si on attend toujours les applications qui rendront cette technologie réellement populaire, les expérimentations et démonstrations se poursuivent et certaines d’entre-elles sont prometteuses. La réalité augmentée commence, entre autres, à prendre ses marques dans la formation professionnelle et dans l’assistance aux salariés au sein des usines et des chaînes de maintenance, avec succès.

Se comportant comme une surcouche de la réalité, il n’est pas difficile d’imaginer comment cette technologie pourrait devenir une nouvelle version du monde hypertexte. Un peu comme un audio-guide de musée qui serait superposé au monde entier.

Bienvenue dans le supraverse

Imaginez donc : vous vous promenez dans la rue et vous pouvez savoir, quand ça vous chante, quels films ont été tournés dans cette même rue – c’est un jeu auquel s’adonne déjà quelques internautes cinéphiles. Mais vous pouvez également découvrir si des évènements importants, improbables, ou anecdotiques, y ont eu lieu. Certaines start-ups, comme SkyBoy pour n’en citer qu’une, travaillent déjà à ces concepts de Réalité superposée. Dans les solutions déployées par la start-up dans certains musées, vous pouvez ainsi scanner une œuvre à l’aide de votre smartphone et voir apparaître sur votre écran un guide qui vous en détaillera l’histoire et livrera mille anecdotes sur sa création.

Mais si la technologie d’accès à l’information est bien là, il manque encore un petit quelque chose pour faire du monde réel un vrai support d’hypertexte. Une plateforme comme Skyboy ne fonctionne que dans un parcours balisé, à l’intérieur d’un musée ou d’une exposition par exemple. Impossible de déclencher une histoire au hasard, et en passant dans la rue de connaître l’histoire du château d’en face d’une simple… pensée.

Vous l’avez deviné, la seconde technologie qui pourrait révolutionner l’hypertexte, ce sont bien entendu les implants cérébraux. Pour l’instant, on en est encore au stade de la science-fiction dans ce domaine, mais imaginez : à chaque question que vous vous posez, devant la télévision, au coin de la rue, en lisant un livre… vous n’avez plus à sortir votre smartphone pour effectuer une recherche mais simplement à penser à celle-ci. Les savoirs correspondants – images, sons, textes… – défilent alors dans votre tête… et libre à vous de vous y perdre et d’y naviguer comme bon vous semble.

Les enceintes connectées – comme Google Home ou Amazon Alexa – permettent, dans une certaine mesure d’imaginer ce type de comportement. Mais leur capacité de reconnaissance des phrases et leurs connaissances, basées avant tout sur la recherche textuelle du Web, sont encore limitées. Rien de bien naturel pour l’instant.

Des liens dans le cerveau

Dans le domaine des implants cérébraux, c’est aujourd’hui le Neuralink d’Elon Musk qui concentre les imaginaires. Le milliardaire américain a présenté l’année dernière des expériences réussies sur… des cochons. Loin de l’ordinateur cérébral de nos rêves. Les extensions du cerveau mises au point dans d’autres laboratoires se consacrent au contrôle à distance des ordinateurs et des appareils électroniques, principalement par l’interprétation des ondes cérébrales et leur traduction en instructions simples. L’objectif, dans un premier temps, étant de faciliter le quotidien aux personnes atteintes de paralysie. Mais qui sait si demain ces interfaces n’iront pas plus loin dans la compréhension de nos pensées ? Mais qu’on se base sur la réalité augmentée, les interfaces neuronales ou d’autres technologies à venir pour imaginer l’hypertexte de demain, peu importe. Cette exploration du futur nous fait prendre conscience de deux aspects cruciaux de notre relation à la connaissance : D’abord, la liberté de navigation, la possibilité d’être réellement libre dans ses errements et l’accès à l’information à n’importe quel moment – comme on clique de liens en liens sur la Wikipedia – sera clé dans notre appréhension de l’information dans le futur, afin de nous affranchir de l’emprise des GAFA. Ensuite, l’hypertexte du futur va plus loin que de simples liens textes : il se base sur des sons, des images, des sensations…un ensemble diversifié de médias que les technologies modernes vont nous permettre de partager de plus en plus facilement !


As We May Link, c’est un voyage au cœur de l’hypertexte que vous propose l’agence de design digital Plan.Net France : 8 épisodes au cours desquels on parle de la façon dont créons des liens, des origines de l’hypertexte, des menaces qui pèsent sur lui et des opportunités que nous avons à le développer. Huit épisodes à retrouver sur ce blog, et sur les réseaux sociaux.

(As We May Link, c’est une histoire du Web et de l’Hypertexte en 8 épisodes. Si vous avez manqué le début n’hésitez pas à reprendre au premier article, c’est ici : https://serviceplan.blog/fr/2021/09/as-we-may-link-la-blibliotheque-des-origines/.)

Pour ce quatrième épisode de As We May Link, revenons dans le présent. On a jusqu’ici évoqué la construction de notre univers hypertexte, mais assez peu notre comportement face à celui-ci… Et de ce point de vue, il faut bien avouer que les dernières tendances sont assez peu enthousiasmantes.

Explorer en profondeur

L’hypertexte, dans sa définition de base, n’est pas simplement une juxtaposition de références plus ou moins bien choisies et présentées. La théorie de l’hypertexte implique la liberté pour le lecteur de lire ou de ne pas lire un contenu, de naviguer à sa guise dans un univers d’information quasi-infini.

Pour bien comprendre cela, le plus simple est encore de se pencher sur la façon dont nous naviguons aujourd’hui sur la Wikipedia : prenez n’importe quelle page de l’encyclopédie libre, par exemple celle consacrée au film Terminator 2. Prenez simplement la peine de faire 3 clics et voyez sur quel type d’information vous arrivez. Vous pouvez aussi bien arriver sur une page parlant de la colonnade du Louvre (Terminator 2 > Culture Populaire > Charles Perrault > Colonnade du Louvre) que sur une page consacrée au climat méditerranéen (Terminator 2 > Sarah Connor > Los Angeles > Climat méditerranéen). Deux exemples parmi des milliers de navigation possible.

Dans un monde d’hypertexte, la liberté de navigation est totale et ne dépend que de vos centres d’intérêt, de votre curiosité et du temps que vous avez à consacrer au surf. Malheureusement, le Web d’aujourd’hui tend de plus en plus vers la linéarité d’exploration.

Le problème vient à la fois des réseaux sociaux et des moteurs de recherche.

Nager à la surface

Du côté des réseaux sociaux, c’est l’usage du fil qui est en cause. En 2019, un internaute moyen scrollait 141 mètres de contenu chaque jour. Avec la démocratisation du scroll, la navigation sur le Web a changé de dimension : d’une navigation en profondeur, lien par lien, elle s’est muée en une navigation en longueur, au fil du pouce. L’interactivité sur les réseaux sociaux s’arrête aujourd’hui à deux actions. D’abord arrêter de scroller quand un contenu – le plus souvent une image ou une vidéo – attire notre attention. Et ensuite, cliquer sur ce contenu pour le liker ou pour en voir le détail (activer la lecture d’une vidéo, faire défiler un carrousel, ou accéder à un article).

La profondeur de consultation s’arrête là. La plupart du temps, nous reprenons notre scroll ou cliquons sur le bouton Back de notre navigateur pour reprendre le fil de cette navigation linéaire.

Cette tendance se double d’une intégration croissante des contenus. La multiplication des APIs permet en effet à n’importe quel acteur digital d’intégrer n’importe quel type de contenu à l’intérieur de sa propre interface. En conséquence : on consulte aujourd’hui des plateformes plus qu’on ne clique sur des liens.

L’exemple le plus flagrant de cette plateformisation de l’information, c’est Google. Le moteur de recherche permet désormais d’avoir accès à une foule d’informations sans le moindre clic : paroles de chansons, mesures, calendrier, points d’intérêt touristique… Google exploite de moins en moins les liens et renvoie de moins en moins vers les sites Web. Tout cela préfigure bien entendu d’autres révolutions : le vocal, la réalité augmentée et d’autres types d’interfaces dans lesquelles l’interaction sera sans doute minime.

Flotter…

Si on n’avait pas peur de la caricature, on dirait que le Net est actuellement en train de se transformer en une nouvelle télévision, un mass-média devant lequel le comportement des utilisateurs serait de nouveau passif et linéaire.

Ces grandes tendances au dirigisme sont d’autant plus inquiétantes que la consommation de contenu digital a pris énormément de place dans nos vies. Nous consultons plus de 200 fois notre smartphone quotidiennement, et l’apparition de syndromes comme le fameux FOMO – Fear of Missing Out – montre à quel point nous comptons désormais sur les contenus digitaux pour accompagner, et construire , notre vie.

Comment ne pas imaginer qu’un média devenu pauvre en possibilité de navigation n’ait pas d’impact sur nos vies ? Aujourd’hui, le Net a repris pour son compte les critiques que l’on formulait à l’égard de la télévision il y a seulement 35 ans. Alors, comment faire renaître l’utopie hypertexte ?

Envie de connaître la suite de l’histoire ? L’épisode 5 d’As We May link est déjà disponible :


As We May Link, c’est un voyage au cœur de l’hypertexte que vous propose l’agence de design digital Plan.Net France : 8 épisodes au cours desquels on parle de la façon dont créons des liens, des origines de l’hypertexte, des menaces qui pèsent sur lui et des opportunités que nous avons à le développer. Huit épisodes à retrouver sur ce blog, et sur les réseaux sociaux.

(As We May Link, c’est une histoire du Web et de l’Hypertexte en 8 épisodes. Si vous avez manqué le début n’hésitez pas à reprendre au premier article, c’est ici : https://serviceplan.blog/fr/2021/09/as-we-may-link-la-blibliotheque-des-origines/.)

Troisième épisode de As We May Link, et il va bien falloir parler un peu technique. Parce qu’il faut bien reconnaître que si l’hypertexte prend naissance dans notre cerveau, il se concrétise aujourd’hui avant tout sur les écrans de nos smartphones et de nos ordinateurs. Alors, c’est le moment de parcourir quelques soixante ans d’histoire informatique pour (re)découvrir comment nous en sommes arrivés au Web d’aujourd’hui.

Créer l’ordinateur moderne…

Quand en 1945, Vannevar Bush imagine Memex (voir notre premier épisode), il base son idée sur l’ensemble des innovations technologiques disponibles à son époque : il y a là des bandes magnétiques pour enregistrer les voix, des microfilms pour stocker les images, etc. La mécanique du Web que nous connaissons aujourd’hui va mettre près de quarante ans à émerger. Et pour cela, il lui faudra trois grandes avancées technologiques.

La première, c’est l’ordinateur. C’est en 1945, au sortir de la Seconde Guerre Mondiale, que les ingénieurs américains commencent à investir massivement dans le développement des ordinateurs. Mais à l’époque, pas de clavier ni d’écran : les ordinateurs occupent des salles entières, pèsent plusieurs tonnes et répondent lentement à des demandes précises par des clignotements ou des impressions. Chaque ordinateur est conçu pour un usage déterminé, militaire ou scientifique le plus souvent. C’est seulement au milieu des années 50 que ces mastodontes commencent à perdre du poids et à communiquer manière intelligible. Claviers et écrans sont testés pour la première fois au Massachussetts Institute of Technology avant de se répandre dans toutes les salles informatiques du monde au début des années 60.

…le mettre en réseau…

Mais un ordinateur, seul dans sa salle blanche, ne peut contenir tout le savoir de l’humanité. Il a parfois besoin de communiquer avec d’autres ordinateurs – ailleurs sur le globe – pour accéder à de nouvelles capacités ou à de nouveaux champs de connaissance. Au milieu des années 1960, l’idée d’un partage des ressources informatiques, et donc d’une mise en réseaux de différentes machines, germe dans la tête de plusieurs ingénieurs. Les travaux qui mèneront à la création de l’ARPANET – l’ancêtre d’Internet – débutent en 1966 sous la direction du Pentagone et débouchent sur la connexion de quatre systèmes distincts en 1969 : l’Université de Californie Los Angeles (UCLA), l’Institut de Recherche de Standford (SRI), l’Université de Santa Barbara et celle de l’Utah.

À partir de 1970, le réseau s’étend régulièrement, jusqu’à compter plus de 1000 ordinateurs connectés en 1984. Il deviendra réellement populaire aux USA à partir des années 1980. À cette époque, le gouvernement américain, préoccupé par d’autres sujets, autorise enfin une exploitation commerciale des réseaux. Sur ceux-ci vont naître de nombreuses communautés d’échange parmi lesquelles THE WELL. Issue directement de l’idéologie de contre-culture des années 1960, THE WELL tient du forum de discussion. Un espace sur lequel les participants – fans de musique, ingénieurs, journalistes, businessmen… – échangent des idées, des astuces, des témoignages et débutent un brassage de cultures et d’influences qui marquera l’image du Net pour de nombreuses années. Après avoir servi pendant longtemps aux chercheurs et universitaires, THE WELL et d’autres communautés du même type contribuent également à rendre le Net visible pour un plus large public.

…et partager l’information

La troisième révolution, sans doute la plus importante, date du 13 mars 1989. Au Centre Européen de Recherche Nucléaire, le CERN, Tim Berners-Lee propose d’organiser l’ensemble de l’information utile aux scientifiques sous forme de réseau de contenu distribué. Il imagine un système de pages, chacune accessible via des coordonnées particulières (ce qui deviendra une URL), qu’il est possible de lier les unes avec les autres très facilement. Tim Berners-Lee expliquera plus tard qu’il s’est contenté de mettre en relation la notion d’hypertexte et les notions de réseau informatique existantes. Rien de plus facile.

L’équipe du CERN ne s’arrête pas là. En plus du concept, Berners-Lee et son collègue Robert Cailliau conçoivent les outils permettant de donner vie à cette nouvelle architecture de l’information : un protocole de communication (HTTP) et surtout un langage permettant de lier facilement les contenus entre eux : l’HyperText Markup Language, le désormais célèbre HTML.

Tout cela repose naturellement sur l’architecture définie par les créateurs de l’ARPANET et enrichit même celle-ci. Les documents publiés sur le Web par Tim Berners-Lee sont consultables depuis le monde entier, par d’autres scientifiques, qui pourront à leur tour proposer des contenus.

Le Net que nous connaissons aujourd’hui venait de naître.

Envie de connaître la suite de l’histoire ? L’épisode 4 d’As We May link est déjà disponible :


As We May Link, c’est un voyage au cœur de l’hypertexte que vous propose l’agence de design digital Plan.Net France : 8 épisodes au cours desquels on parle de la façon dont créons des liens, des origines de l’hypertexte, des menaces qui pèsent sur lui et des opportunités que nous avons à le développer. Huit épisodes à retrouver sur ce blog, et sur les réseaux sociaux.

(As We May Link, c’est une histoire du Web et de l’Hypertexte en 8 épisodes. Si vous avez manqué le début n’hésitez pas à reprendre au premier article, c’est ici : https://serviceplan.blog/fr/2021/09/as-we-may-link-la-blibliotheque-des-origines/.)

Bienvenue dans ce deuxième épisode de As We May Link, votre série dédiée à l’hypertexte. Après avoir parlé de bibliothèque et de microfilms, nous allons aujourd’hui parler un peu plus de notre cerveau. Parce que comme le titrait justement Vannevar Bush, l’hypertexte est tout sauf technique : c’est tout simplement la façon dont nous pensons.

Parlons littérature…

L’hypertexte dans sa mise en pratique, c’est la capacité à faire des liens entre les sujets et les idées, à passer du coq à l’âne, à trouver des échos de connaissances passées dans les évènements actuels. C’est ce qui fait que le menu de la cantine mardi midi des gnocchis – donne subitement envie de revoir Le Parrain 3 de Francis Ford Coppola.

Pour se convaincre qu’il n’y a rien d’exceptionnel dans cette idée, il suffit de remonter plus loin que l’ère numérique actuelle. L’hypertexte, même s’il ne se nommait pas comme ça, fait partie intégrante de notre façon de raconter des histoires depuis la nuit des temps. (Re)lisez par exemple Honoré de Balzac. Sa façon de faire des liens entre ses romans par l’intermédiaire des personnages, et donc de permettre au lecteur de sauter d’une histoire à l’autre, c’est déjà – un peu de l’hypertexte.

Un exemple : dans les Illusions Perdues, Balzac explique longuement les coulisses de l’industrie de la presse, nous immerge dans le monde des journalistes ou encore détaille les méthodes de fabrication du papier. Toutes ces digressions sont-elles indispensables à la bonne compréhension de l’histoire ? Soyons honnêtes : pas toujours. Et pourtant, elles apportent une profondeur culturelle et un contexte d’une valeur incroyable. Dans la littérature, ces exemples sont partout…

Une question de souvenirs

C’est même l’une des clés essentielles d’À la Recherche du Temps Perdu. Marcel Proust détaille tout au long de son œuvre la façon dont les souvenirs, impressions, sensations, idées et évènements s’entremêlent dans un tissu logique. Comment des œuvres musicales – les sonates de Vinteuil – se font écho les unes aux autres. Et plus encore comment ces œuvres permettent à différents protagonistes de se remémorer différents évènements et tisser des liens dans leur mémoire.

L’exemple le plus marquant est bien entendu l’odeur de la madeleine trempée dans le thé : un lien sensoriel qui relie le narrateur à sa tante Léonie. Un hypertexte théorisé bien avant l’heure. Ce même mécanisme qui donne envie de revoir le Parrain 3 quand les gnocchis sont au menu de la cantine. As We May Think.

De fait, l’hypertexte est partout autour de nous. Il est chez les peintres quand un motif en rappelle un autre. Elle est chez Alfred Hitchcock quand la forme d’un chignon rappelle le tourbillon qui entraîne James Stewart dans Vertigo. Elle est dans les bandes dessinées de Cosey, de manière plus volontaire, quand celui-ci détaille en quatrième de couverture de ses Jonathan les musiques qui ont appuyé son inspiration…

Partout sur le Web…

Car l’hypertexte, malgré son nom, n’est pas forcément textuel et peut pendre les formes les plus diverses. Le maëlstrom de contenu dans lequel nous naviguons à l’heure d’Internet et l’émergence d’une culture de masse portée par la musique et le cinéma ont d’ailleurs permis à l’hypertexte d’exploser en nombre et en forme. Si l’on explore un peu le Net, on se rendra vite compte à quel point les ponts entre les idées peuvent modeler le paysage du contenu. Deux exemples entre mille.

Vous connaissez les mash-ups ? La combinaison de plusieurs sources vidéos et/ou sonores. Une forme d’hypertexte vidéo et/ou musical ? Quand Mashup Superstars publie un assemblage de morceaux de Dr Dre et de Michel Berger, il fait de l’hypertexte en basant sa création sur un lien : le rythme. Que l’on parle de mot, de son, d’odeur de madeleine ou de rythme, la mécanique est la même. On parle de lien. L’émission cinématographique d’Arte Blow Up en est une autre illustration frappante. En dressant l’inventaire de ses madeleines – vocabulaire assumé – Luc Lagier exploite des liens, parfois évidents et parfois ténus, entre une thématique et un univers culturel et mental. Blow Up est un hypertexte dans la mesure où il permet de passer d’un univers à l’autre, de sauter d’Apocalypse Now au Didier d’Alain Chabat . Une logique de liens que Luc Lagier explique d’ailleurs lui-même de façon passionnante.

Un témoignage qui en dit aussi long qu’un volume de Proust sur le fonctionnement intime de notre cerveau, et la façon dont nous tissons des liens…

Envie de connaître la suite de l’histoire ? L’épisode 3 d’As We May link est déjà disponible :


As We May Link, c’est un voyage au cœur de l’hypertexte que vous propose l’agence de design digital Plan.Net France : 8 épisodes au cours desquels on parle de la façon dont créons des liens, des origines de l’hypertexte, des menaces qui pèsent sur lui et des opportunités que nous avons à le développer. Huit épisodes à retrouver sur ce blog, et sur les réseaux sociaux.

À l’heure des algorithmes, et demain des intelligences artificielles, il peut sembler bon de parler à nouveau de l’HYPERTEXTE… et surtout de (re)prendre conscience de l’importance de ce concept dans notre quotidien. Une bonne occasion de se pencher sur les façons dont il a émergé, dont il a en fait toujours existé… et dont il peut encore aujourd’hui se réinventer pour enchanter notre quotidien.

C’est parti donc pour une série de 8 petites histoires, que vous retrouverez sur ce blog chaque lundi au cours des prochaines semaines. Des billets qui vous feront – on l’espère – réfléchir et peut-être imaginer les usages digitaux du futur.

On démarre ?

Un bibliothécaire nommé Jorge Luis

Un peu de théorie pour commencer. La notion d’hypertexte – qu’on résumera comme la possibilité de créer des liens entre des idées, des concepts, des contenus… – n’a rien de récent. Les premières ébauches d’un savoir infini et consultable à l’envie datent, en gros, des années 1940.

Il y a tout d’abord Jorge Luis Borgès et sa fameuse Bibliothèque de Babel imaginée en 1944. Dans cette bibliothèque serait disponible l’infinité des ouvrages composables, soit l’intégralité des façons de combiner les lettres de l’alphabet, que le texte qui en résulte soit compréhensible ou non.

Le catalogue de la Bibliothèque de Babel dépasse l’imagination humaine. S’y côtoient des enchaînements de lettres sans signification, des œuvres totalement abstraites, mais aussi le plus beau des poèmes de Rimbaud, le mode d’emploi de votre lave-vaisselle et pourquoi pas la prochaine proposition commerciale de votre agence publicitaire. La bibliothèque de Babel contient, en fait, l’intégralité du savoir écrit humain et se présente ainsi comme l’un des précurseurs du Web d’aujourd’hui. Depuis 2015, elle est d’ailleurs consultable en ligne : www.libraryofbabel.info. Bien entendu, elle ne vous rendra aucun service, mais cet exercice d’application donne une idée de l’immensité des possibilités de création de contenu.

Soit dit en passant, l’équivalent musical de la Bibliothèque de Babel existe lui aussi : un spécialiste du droit français, Damien Riehl s’est amusé à créer à l’aide d’un algorithme l’intégralité des mélodies possibles, et à protéger légalement celles-ci. Au total, ce sont plus de 68 milliards de compositions qui ont été créées. Une sorte de… Discothèque de Babel.

Au cœur de Memex

Mais la Bibliothèque de Babel, même si elle contient tout le savoir humain ne suffit pas à créer de l’hypertexte. Dans cette bibliothèque, nous sommes livrés au hasard : on pourrait l’explorer pendant une vie entière en n’y trouvant que des ouvrages dénués de sens. Il manque à l’œuvre de Borgès un outil de navigation.

Cet outil de navigation, cela pourrait être le Memex. Un système imaginé par l’ingénieur américain Vannevar Bush en 1945. Dans un article fondateur paru dans le journal The Atlantic – et toujours consultable – il imagine un système mécanique fonctionnant de manière similaire au cerveau humain.

Le résumé de l’exercice est ardu. On pourrait dire que Memex stocke la totalité du savoir produit par un humain sous forme de microfilms ou de bandes magnétiques, ces contenus pouvant aussi bien être enregistrés par voix ou par une caméra miniature. Mais Vannevar Bush ne s’intéresse pas qu’au stockage de l’information, il s’intéresse aussi à la façon de retrouver ces connaissances. Memex possède des outils de recherche (un clavier, un index) permettant d’accéder rapidement à un microfilm en particulier. Mais le système ne s’arrête pas là…

Copier l’esprit humain

Memex se veut le plus proche possible de l’esprit humain. Vannevar Bush imagine donc un moyen de marquer les contenus enregistrés – par exemple, avec un mot-clé – et de les organiser selon des flux d’idées – comme c’est le cas dans un flux de pensée, dans votre propre cerveau – et il va jusqu’à concevoir ces marqueurs comme des bases de partage.

Avec Memex, je peux retrouver, même des années après, mon flux de pensée initial sur une thématique et m’y replonger – un peu comme dans le Pensieve cher à Albus Dumbledore dans la saga des Harry Potter – ou alors le compléter avec de nouvelles connaissances et de nouveaux souvenirs. Si le mot hypertexte n’est pas utilisé une seule fois dans la vision de Vannevar Bush, on peut facilement imaginer que Memex est LE précurseur du Web et de l’hypertexte.

Dernier détail, et petit clin d’oeil : l’article de Vannevar Bush se nomme As We May Think – Comme Nous Pourrions Penser. Comme quoi, il n’y a pas réellement de hasard.

Envie de connaître la suite ? L’épisode 2 d’As We May Link est disponible :


As We May Link, c’est un voyage au cœur de l’hypertexte que vous propose l’agence de design digital Plan.Net France : 8 épisodes au cours desquels on parle de la façon dont créons des liens, des origines de l’hypertexte, des menaces qui pèsent sur lui et des opportunités que nous avons à le développer. Huit épisodes à retrouver sur ce blog, et sur les réseaux sociaux.

En relisant ces dernières semaines l’excellent Supercade [1] paru aux presses du MIT il y a cela près de 20 ans, je me faisais quelques réflexions sur la technologie et notre relation à celle-ci...

🎵 Salle d’arcade. Ambiance années 80. Démarrez donc la B.O. de Stranger Things
pour poursuivre la lecture de ce billet de blog…

Mais d’abord, pour ceux qui ne connaissent pas l’ouvrage, quelques mots sur Supercade. Abondamment illustré, ce bouquin est un concentré d’histoire des jeux vidéo, couvrant une période allant de 1971 à 1984 et orienté principalement sur le petit monde des salles d’arcade. Très américain dans l’âme, Supercade donne des bouffées de nostalgie à tout ceux qui ont dépensé de l’argent sur Galaxian en attendant leurs parents à la caisse du supermarché ou rêvé devant les écrans de Space Ace à la fête foraine du village. Une enfance biberonnée aux pixels, à une époque où le videogaming n’avait pas encore envahi les maisons, et où les enfants ne passaient pas encore leurs journées de confinement sur la Nintendo Switch ou la PS4 en attendant que leurs parents leur disent de bien finir leurs devoirs. Une époque où les jeux vidéo se consommaient dehors. Nostalgie, donc.

Le livre revient également sur les toutes premières élaborations de jeux sur écran, dans les salles sérieuses des universités américaines : au Laboratoire National de Brookhaven en 1958 et au MIT en 1962. Dans les deux cas, ces premières expérimentations sont le fait de passionnés.

Tennis for Two est là, sur la gauche de la photo.
Ce tout petit écran rond, avec les deux manettes de jeu juste en dessous.

Tennis for Two naît en 1958 à Brookhaven dans le cadre des journées portes-ouvertes du laboratoire [2]. L’idée est de démontrer aux visiteurs la puissance et l’attractivité des monstres informatiques qui occupent plusieurs salles des bâtiments, et le meilleur moyen de démontrer tout cela est… la conception d’une démonstration interactive sur écran. Autrement dit, un jeu. Le succès est au rendez-vous est Tennis for Two, une simpliste simulation de tennis sur oscilloscope (pas plus compliquée qu’un bon vieux Pong) devient le clou de la visite pour de nombreuses personnes.

Une partie endiablée de Spacewar! dans les locaux du MIT dans les années 1960.
Et vous ne voyez même pas la file d’attente des gamers un peu plus loin.

Autre glorieux vétéran, Spacewar! naît lui au MIT en 1962 dans des circonstances un peu différentes [3]. Les « coupables » sont cette fois les jeunes étudiants du Tech Model Railroad Club [4] du laboratoire, habitués à détourner les outils disponibles ici et là pour améliorer leur réseau de chemin de fer miniature. Littéralement tombés sous le charme d’un nouveau modèle d’ordinateur, ils se mettent au défi de le pousser dans ses retranchements à l’aide d’une démonstration technologique complexe. Quoi de mieux qu’une application interactive pour cela ? Un jeu ? Spacewar!, qui voit s’affronter deux vaisseaux autour d’un trou noir sera – réellement – un défi technologique. Conçu par des chercheurs et des ingénieurs, le jeu respectera le plus scrupuleusement possible les lois de la gravité ou la disposition des étoiles dans le ciel, demandant de multiples optimisations technologiques et informatiques avant d’être présenté à un public plus large. Le jeu aura un succès retentissant dans le milieu universitaire.

Viendra ensuite l’ère des businessmen, le développement des consoles de salon par les fabricants de télévision américains – Magnavox en tête – et la création de la première entreprise entièrement dédiée aux jeux vidéo : Atari. Mais c’est une autre histoire [5].

🎵 Une salle informatique, dans les années 1950.
Cette fois, un peu de Pierre Henry vous mettra dans l’ambiance.

Les premières pages de Supercade nous rappellent surtout que les jeux vidéo sont une invention de technophiles et de passionnés. Des types venus d’une époque où l’informatique était un fantasme qui s’était tout récemment concrétisé en quelques gigantesques armoires de métal. Une époque où le numérique n’avait pas encore envahi le quotidien de tout un chacun et faisait encore l’effet d’une vaste Terra Incognita. Une époque où l’exploitation des données de milliers de personnes par les premiers systèmes IBM n’avait pas encore soulevé de questions quant à notre dépendance aux octets et à l’impact des bases de données sur notre société et nos vies quotidiennes [6].

Supercade rappelle également que ces précurseurs ont été les premiers d’une lignée de passionnés qui ont fondé toute l’industrie des jeux vidéo : des codeurs, pour la plupart, apprenant à maîtriser tous les arcanes d’un processeur, à optimiser les affichages et qui voyaient parfois dans l’art vidéoludique plus qu’un business : un défi technologique et parfois une nouvelle forme d’expression.

Fin de la séquence nostalgie, retour au temps présent !

Nous vivons à la fois une période de techno-hystérie et de techno-doutes.

S’il ne devait y avoir qu’une seule image-symbole de l’emballement technologique
de notre société actuelle, ne serait-ce pas cette antenne 5G ?

De techno-hystérie car il n’a jamais été autant question de mettre de la technologie partout. Résultat de plus de soixante ans de lune-de-miel informatique, notre société vit dans le numérico-solutionnisme. Nous développons des solutions numériques pour tout : gérer des attestations [7], composter nos déchets [8], reporter les incivilités [9], allumer notre chaudière [10] et bientôt gérer notre conduite automobile en partenariat avec les sociétés d’assurance [11]. Certains – et pas des moindres – étudient même la possibilité de créer des arbres-technologiques destinés à absorber nos excédents de CO₂ [12], caricature s’il en était besoin de là où nous pousse la technologisation à outrance de toute réflexion.

« Oui, il y a une app pour ça aussi ! »

De techno-doutes car, en regard de cette course à la technologie qui rappelle les plus belles inventions du monde cyberpunk [13], les critiques n’ont jamais été aussi nombreuses. Souvent fondées face aux multitudes de projets de vidéosurveillance et de tracking de la population, face à l’emprise des régies publicitaires sur nos vies en ligne [14] et face à l’empire des GAFA sur la société au global [15] – aussi bien économiquement que technologiquement. Les voix se multiplient, les analyses s’affinent et les réflexions évoluent devant ce que les années 2010 nous ont vendu de panacée numérique. Le réveil techno-critique est à comparer au réveil écologique des années 1970 [16], en espérant toutefois son impact bien plus rapide et concret.

Rêvez-vous de balles multicolores qui rebondissent sans fin sur des écrans,
comme dans
les bonnes vieilles demos des Amiga ?

Cette période critique, charnière et passionnante fait toutefois se poser nombre de question, dont une d’importance : où est passé le rêve ?

Les proto-informaticiens des années 1950 rêvaient de l’ordinateur et de ses applications, tout comme Jules Verne rêvait de l’électricité et des transports émergents. Ils en rêvaient comme rêvent les artisans, concrètement, avec les mains – digitalement – en créant prototypes, expérimentations, démonstrations, monstres et artefacts. Ils ne rêvaient pas de solutions. Spacewar!, pas plus que Pong ou Space Invaders, n’est une réponse à un quelconque problème. Ils rêvaient de possibles. Puisque la technologie existe, il doit être possible de la pousser – gratuitement, sans but – plus loin encore que ce qu’elle ne réalise déjà. Les jeux vidéo, comme beaucoup des fantasmes technologiques d’aujourd’hui, n’ont pas d’objectifs. Ils étaient seulement possibles et on fait rêver des millions de personnes, bousculant à la fois le monde des loisirs, l’industrie balbutiante de l’électronique et de l’informatique et la culture populaire. Une sorte de porte ouverte vers un nouvel univers.

Que sont devenus ces rêves aujourd’hui ?

Rêvez de la technologie n’est plus à la mode… Tout d’abord parce que depuis les années 1990, le monde numérique s’est mâtiné de capitalisme. On n’explore plus les technologies pour le simple plaisir de voir ce qu’elles peuvent faire : on business-plane, on analyse, on solutionne, on start-upise. Le modèle des Business Angels de la Silicon Valley et la mythologie du garage sont passés par là, transformant toute expérience numérique en une culbute potentielle. Nous vivons à l’heure de la Start-up Nation et des investissements : les explorateurs, les poètes, les bénévoles de la technologie se font rares. Les ambitions sont-elles nombreuses

🎵 Le building de la Tyrell Corp dans le Blade Runner de Ridley Scott en 1982 (B.O. pour vos oreilles),
prototype du siège d’Apple ou Facebook ?

Ensuite, devant l’ampleur des empires techniques, on serait tenté de croire que le numérique n’est plus de toutes façons un monde de bricoleur, mais un univers de gigantesques corporations – coucou la Tyrell Corp [17] et l’univers cyberpunk de Blade Runner – et s’il reste des ingénieux capables de concevoir des boîtes à message branchées sur Telegram [18] ou des juke-box magnétiques [19], ce rêve numérique a du plomb dans l’aile. Peut-être parce qu’il a dévoilé trop de ses côtés obscurs – sociétaux, écologiques, cognitifs… et peut-être qu’après une période d’enchantement vient toujours la période des désillusions ? Peut-être un peu parce que le monde digital est également une cible facile en ces temps de crise – sanitaire, écologique, économique… – et que quitte à interdire aux enfants de rêver d’avions, on pourrait également leur interdire de rêver de robots ?

Rêvons-nous encore de moutons électriques ?

Les technophiles des années soixante, les chercheurs et les industriels qui travaillaient et découvraient les possibilités des gigantesques systèmes informatiques des universités et laboratoires d’état, ont donné naissance – pas tout à fait malgré eux – à une contre-culture solide qui a irrigué le monde. Plus artistique, plus libre, et quelque part plus responsable, la vague hippie des années 1970 est apparue en partie en réaction à l’American Way of Life et à la débauche d’écrans – de télévision – de l’Amérique moyenne. Et comme rien n’est jamais simple, elle a également joué de ses moyens technologiques pour diffuser son idéal, faire bouger les lignes et faire résonner ses revendications. Les écrans des networks établis sont également devenus les mégaphones de la contre-culture, les supports d’expérimentation des artistes des années soixante et soixante-dix. La technologie est devenue moyen de militantisme, arme de changement. Bien entendu, l’histoire est plus compliquée que cela.

Le maquillage anti-reconnaissance faciale, prochaine mode ?

Aujourd’hui, nos rêves se nourrissent d’autres idées. Des idées qui, sans exclure les outils technologiques, ne leur donnent plus forcément la part dominante. On parle du recyclage de la ville [20], on parle de créer de nouvelle mobilité, on parle de préserver l’anonymat sur le Net [21], on parle de révolutionner le monde de l’habillement et de laisser disparaître l’écologiquement désastreuse mode du Fast-Fashion [22], on parle aussi et surtout d’adapter nos innovations aux défis écologiques et sociétaux auxquels nous devons faire face sans pour autant tout sacrifier à la technologie.

Il est difficile de sortir de plus de cent-vingt ans de culte de la machine. Mais sans parler de retourner à l’ère de Amish – on ne l’a jamais réellement envisagé, l’imaginer est une caricature politique [23]il est difficile de nier que nos rêves sont en train de changer, et que la pandémie globale de Covid-19 qui fait danser l’humanité depuis plus d’un an a sans doute accéléré la valse de nos envies.

Le parallèle est tentant. Vingt ans après la première bulle du Net et après plus d’une dizaine d’années de techno-culte, ne sommes-nous pas en train de construire une nouvelle contre-culture sur le lit des réseaux sociaux et des technologies ouvertes ?

L’urbanisme circulaire n’est-il pas notre nouveau rêve de communauté ? La lutte contre la surveillance est-elle une nouvelle forme du refus de l’emprise administrative ?

Si le contexte s’est globalisé et concerne désormais le monde entier, et chacun d’entre nous, si l’urgence écologique est autrement plus urgente qu’elle ne l’était il y a cinquante ans, les parallèles sont troublants et la répétition d’un cycle d’action-réaction est flagrant. Loin des nouveaux amish, nous sommes peut-être les nouveaux hippies. Des hippies que ne nient pas l’apport de la technologie, qui en jouent et savent – parfois – en éviter les abus. Et qui veulent cette fois, au lieu de simplement l’explorer, en connaître les limites « humaines » et réfléchir à ses apports réels à la société.

Les créateurs de Tennis for Two et de Spacewar! rêvaient de technologie pure et voulaient pousser les machines dans leurs retranchements. Ils se voyaient en explorateurs d’un nouveau monde technologique. La génération qui a construit le Net des années 2000 est sans doute la dernière à avoir partagé ce rêve technologique pur.

Le dôme géodésique comme symbole des utopies des années soixante.
Quel symbole pour celles d’aujourd’hui ?

Aujourd’hui, nos imaginaires et nos ambitions ont besoin de se transformer.

En soixante ans, nous avons vu ce dont était capable la technologie et les dérives auxquelles elle pouvait mener. Nous maîtrisons les ordinateurs, mais il nous manque sans doute la sagesse de maîtriser l’usage que nous en faisons. Ne plus faire la technologie pour la technologie, passer le cap, voilà le défi que les nouveaux hippies ont besoin de relever. Redonner à l’homme une place centrale dans la révolution numérique, redonner à la Terre une place centrale également et continuer à construire des outils et des imaginaires qui servent ce recentrage.

Aujourd’hui, nos imaginaires ne sont sans doute plus ceux d’explorateurs. Noyés dans la technologie, nous rêvons d’une façon de ré-habiter le monde – et pourquoi pas avec l’aide des machines quand celles-ci sont positives, responsables et non-aliénantes.

Reste une bonne nouvelle : c’est que nous rêvons toujours.

#RIP Flash (1996 - 2020)

Macromedia, pardon, Adobe Flash, a donc quitté la scène digitale en ce tout début d’année 2021 [1]. Un peu dans l’indifférence générale.

Il faut dire que depuis la sortie du premier iPhone en 2007 et de son non-support des sites développés en Flash, cette plateforme de création avait cessé de séduire le grand public. Flash n’a jamais franchi la révolution mobile et continuait à vivoter depuis 10 ans sur certaines interfaces professionnelles et de rares sites potaches, supplanté par le HTML 5.0 et les possibilités devenues quasi-infinies des feuilles de style. Aussi Flash était comme ces acteurs centenaires dont la nouvelle du décès surprend [2]. On ignorait finalement qu’il était encore vivant…

Pourtant, il y a bien un avant- et un après-Flash à l’échelle du Net. Et la révolution que le logiciel signé Macromedia/Adobe aura portée peine à trouver sa succession dans un Net d’aujourd’hui peuplé de réseaux sociaux.

La révolution Flash

Pour ceux qui n’ont pas connu l’ère des dinosaures, il est peut-être bon de revenir sur la révolution qu’a été Flash dans l’expérience utilisateur du Net. Le Web des origines, celui de la fin des années 1990, est avant tout un univers textuel. Et si les premières normes HTML autorisent bien entendu l’intégration d’images, il est bon de se rappeler – avec une petite larme de nostalgie – que la logique d’organisation des contenus et des formes tire alors sa logique des machines à écrire plus que des toiles de maître ou de la télévision. On écrit, on trace des tableaux, on inclut des images pour illustration et avec un peu de pratique, on embellit tout cela avec quelques feuilles de style. L’interactivité du Web 1.0, ce sont avant tout des liens qui mènent d’une page à l’autre, et parfois provoquent quelques réactions sur les écrans cathodiques. Merci le Javascript balbutiant.

L’arrivée de Macromedia Flash dès 1996, et surtout son développement poussé à partir de 1999, va ouvrir de nouveaux horizons au développement Web. La logique de présentation de Flash ne vient pas du Web, elle vient du monde des CD-Rom, éducatifs et encyclopédiques. Un monde dans lequel on ne réfléchit pas en page, mais en écran. Un monde où le graphisme est roi, où l’information se fait volontiers visuelle et où l’interactivité va jusqu’au développement de routines de jeux simples. Le grand frère de Flash, c’est Macromedia Director [3], logiciel incontournable de bon nombre de studios multimédias dans années 1990, grâce auquel vous – les plus anciens – aurez pu découvrir Le Louvre [4], les grandes batailles de l’histoire ou les mystères du Machu Picchu.

Avec Flash, le Net s’affranchit de sa logique linéaire. Les images s’affichent en grand écran, les formes se manipulent aisément, l’interactivité devient reine. Avec Flash, le Net devient une réelle expérience multimédia. Bien avant YouTube, les dessins-animés et les cartoons envahissent la toile – souvenez-vous des Badgers [5], de Leak Song [6] ou des Vikings Kittens [7]. Le Net devient un espace de jeu – Yeti Sports, parodie cruelle des jeux olympiques d’hiver, ressuscitée depuis sous d’autres formats [8].

Pour les développeurs aussi, Flash change la mise. Le Net sort de la secte des codeurs-intégrateurs et s’ouvre aux graphistes et aux animateurs. Une toute nouvelle caste de travailleurs du numérique qui vont donner aux Web une patte graphique qu’il n’aurait pu avoir sans eux. On a peut-être du mal à se le rappeler aujourd’hui, mais Flash contribue, du moins en partie, à faire du Web un média à part entière. Oui, rien que ça.

Où sont les interfaces d’antan ?

Mais les révolutions n’ont qu’un temps. Flash, émancipateur de la narration et de l’interactivité du Net, n’a pas résisté à la déferlante du mobile. Moitié par lourdeur – oui, les plug-ins Flash était lents et exaspérant, mais ils en valaient la peine ! – moitié pour des questions de sécurité – oui, Flash avait quelques failles, et les hackers n’hésitaient parfois pas copier son fonctionnement pour pirater les PC des internautes – et moitié pour des raisons politiques.

Adobe Flash, l’éditeur de logiciels Adobe ayant racheté la maison Macromedia en 2005, a donc tué Flash le 31 décembre dernier. Et le 12 janvier 2021, l’ensemble des navigateurs du marché – Chrome, Firefox et Safari en tête – ont cessé de supporter les anciennes versions du système, reléguant un pan entier de l’histoire du Net dans l’oubli [9]. Bien entendu, de nombreux frameworks de développement, mêlant différentes technologies, permettent aujourd’hui de créer des interfaces Web dignes du Web d’antan, et même des interfaces plus rapides, plus stables et plus standardisées. Mais le goût de l’innovation et du bizarre qui accompagnait l’extension d’Adobe semble avoir disparu des écrans.

Les réseaux sociaux ont démocratisé le scroll, rendant le balayage du pouce la quasi-seule interface disponible sur les écrans de mobile. D’Instagram à Twitter, de Facebook à LinkedIn, on scrolle à l’infini [10]… et si le format stories a un temps chamboulé les lignes éditoriales, sa copie d’une plateforme à l’autre (Instagram ,puis Facebook, LinkedIn et Twitter, encore [11]) fait que l’on scrolle encore. Le mouvement vertical s’est seulement mué en un mouvement horizontal.

Et sur les écrans d’ordinateur, la domination de WordPress et d’autres CMS – qui a dit PrestaShop ? qui a dit Wix ? qui a dit Drupal ? [12]a fait émerger des interfaces graphiques standardisées, suivant les bonnes pratiques de l’UX et de la performance digitale.

Si l’on voulait être caricatural, on oserait clamer que la dernière innovation des interfaces Web est le swipe [13], cette façon d’accepter ou de refuser un contact adoptée par Tinder en 2012 – huit ans déjà – et adoptée depuis jusque dans les sites médias [14]. Sortie de là, la créativité semble avoir déserté les écrans.

Créativité, où es-tu ?

Et pourtant, le Net d’aujourd’hui permet, plus que jamais, de se risquer au développement d’interface riches et complexes, parfois les seules capables de réellement nous présenter un sujet dans sa complexité, justement. Ces expérimentations existent, mais elles semblent rarement toucher le grand public.

Ainsi, le Lab du New York Times développe depuis quelques années un réel savoir faire en termes d’interfaces innovantes et de webdocumentaires. L’exemple le plus flagrant, et le plus grand public, est sans doute l’analyse complète publiée à l’été 2020 sur l’explosion du port de Beyrouth [15]. Sur une seule page, le quotidien américain utilise des techniques aussi diverses que le découpage vidéo, le timelapse et l’infographie 3D pour faire comprendre les causes et les conséquences d’un évènement au retentissement majeur. Un mix média que n’auraient pas renié les développeurs Flash des années 2000. Le New-York Times est d’ailleurs pionnier dans la représentation infographique et n’hésite pas à décortiquer sa logique de présentation de l’information sur un site dédié [16] . Photos, vidéos, et même réalité virtuelle y ont la part belle, dans ce qu’on aimerait être un des prototypes du Web de demain.

En France, les interfaces conçues par l’Atelier, cellule de veille et d’innovation de BNP Paribas [17], font elles aussi figure d’exemple. Ici, forme et fond se mêlent pour projeter l’internaute dans une thématique et lui faire comprendre ce qu’est réellement l’économie virtuelle [18], ou quels sont les enjeux technologiques de demain [19]. Comme chez le New-York Times, on admirera la maîtrise du propos et l’adéquation souvent parfaite de la forme avec celui-ci. Un travail qui témoigne sans doute d’une réelle cyberculture, une inventivité et une créativité qui puise ses racines dans celles du monde numérique, cybernétique et science-fiction en tête.

Ces exemples montrent en tout cas, que Flash mort, on peut encore espérer un Web créatif et multimédia.

Remettre l’innovation au cœur du Web

Alors que certains nous proposent – très sérieusement – un avenir digital dans lequel la réalité virtuelle et les interfaces vocales auront disrupté les écrans d’ordinateur, et à l’heure où, Covid-19 oblige, le Net et ses interfaces prennent une part toujours plus importante dans nos vies, peut-être est-il temps de remettre un peu de la créativité de Flash dans nos pages Web.

Pour surprendre, donner envie de consulter d’autres contenus que les sempiternels fils des réseaux sociaux et nous faire découvrir l’information autrement.

Et si on remettait l’innovation au cœur des interfaces, pour un Web plus enthousiasmant ?

Digital Sunrise, 2021, l'année du numérique positif

Traditionnellement, le mois de janvier est à la fois celui des bilans et des résolutions. Le bilan des mois écoulés et de ce qu’ils ont apporté comme tendances et comme espoirs ; les résolutions pour l’année à venir et la liste des actions à mener pour bâtir – on le souhaite – un avenir meilleur.

2020, année hystérique

Du côté des bilans, on ne va pas revenir sur l’année de la Covid-19. L’épidémie qui a touché le monde a changé les habitudes, imbriqué plus que jamais la sphère privée et l’environnement professionnel, poussé à outrance la digitalisation des entreprises, fait de nous des adeptes du click & collect et des apéro-zoom. Contexte oblige, 2020 a été l’année de l’hystérie numérique. Nous n’avons jamais passé autant de temps sur Netflix, envoyé autant de messages, partagé autant notre image, diffusé autant de données. Nos sociétés occidentales n’ont jamais été aussi connectées, dépendantes des smartphones, des écrans et des Data. Et les images qui nous viennent des expérimentations chinoise annoncent clairement que la route de la numérisation n’a pas fini d’être tracée.

Il y a du bon et du moins bon dans cette digitalisation galopante. Les outils numériques ont permis de garder le contact pendant les périodes d’isolement, en famille ou entre collègues. Ils ont permis d’assurer une activité, et donc des revenus, à certaines catégories professionnelles. Ils ont également montré leur importance croissante dans la dénonciation des injustices et la mobilisation des espoirs. On n’oubliera pas qu’après les #MeToo de 2019, l’année 2020 a été l’année de #BlackLivesMatter, un mouvement dont l’ampleur et la mobilisation n’auraient pas été possible sans les outils numériques, les caméras, les réseaux sociaux et leur capacité d’amplification [1]. Mais un mouvement dont il reste encore à trouver un aboutissement concret.

Parce que 2020 aura également été une année sombre pour les outils digitaux. L’emprise des réseaux sociaux – Facebook en tête – augmente, et les tentatives de régulation de ce Léviathan du contenu et de la publicité n’aboutissent toujours pas, laissant la voie libre aux extrémismes et à la manipulation. L’instantanéité de ces mêmes réseaux a continué à modeler notre paysage médiatique, laissant parfois de côté la raison et la prise de recul nécessaires à la vie dans une société harmonieuse. Les discours emprunts de solutionnisme technologique restent d’actualité – y compris dans la sphère politique [2] – malgré les échecs des modèles de Smartcity à Toronto ou à Songdo. Et enfin, l’empreinte écologique des outils numériques est en 2020 plus importante que jamais, alors que l’urgence climatique se fait de plus en plus pressante.

Comme toutes les années d’hystérie, 2020 nous aura fait naviguer entre crises et espoirs de mois en mois en laissant finalement un bilan complexe : nous ne reviendrons jamais en arrière sur cette société digitale, elle nous accompagnera encore longtemps, mais il devient urgent pour chacun de prendre conscience de ses dérives et de trouver – chacun à sa mesure – le moyen de lutter contre elles.

2021, année responsable

Pour autant, l’année 2021 ne démarre peut-être pas sous de si mauvais signes. Dans le flot d’actualité de ces dernières semaines, occupé en grande partie par la pandémie et l’actualité politique américaine, on voit poindre les premiers discours, les premières actions de lutte contre l’hystérie ambiante.

Elles sont juridiques et politiques. En décembre, 46 états américains ont déposé une plainte contre Facebook pour position monopolistique [3]. La commission européenne semble vouloir durcir le ton face aux politiques fiscales des GAFA [4]. Les travailleurs de Google ont, en ce début d’année, fondé le premier syndicat de l’histoire de l’entreprise [5]. Et enfin, Facebook et Twitter ont, pour la première fois en quatre ans, suspendu les comptes de Donald Trump à la suite des évènements du Capitole américain du 6 janvier.

Des signes qui permettent d’imaginer une année numérique 2021 responsable. Responsable quant à l’impact du numérique sur nos vies quotidiennes, nos opinions et nos relations avec les autres. Responsable quant à la place qu’occupent ces outils dans nos vies. Mais une année responsable uniquement si chacun des professionnels – de plus en plus nombreux – qui opèrent au quotidien dans les sphères digitales agit également pour un numérique positif.

5 principes pour un numérique positif

Pourquoi parler de cela quand on est une agence de design digital ? Aujourd’hui, être partie prenante de l’écosystème numérique, c’est être au choix une composante de l’hystérie ou un apporteur de solutions. Chaque agence, chaque acteur digital devra en 2021 choisir les actions qu’elle entend mener pour ce monde numérique positif que nous souhaitons tous.

Pleinement conscients de notre impact sur la société et le monde qui nous entoure, par le biais de nos développements d’outils digitaux, nous nous engageons chez Plan.Net à respecter 5 principes d’un numérique positif :

  1. Se poser la question non plus des utilisateurs – ces personas parfois désincarnés qui ont envahi les méthodologies – mais des humains qui sont exposés et impactés, parfois indirectement, par les outils que nous concevons.
  2. Interroger l’impact écologique de nos actions et de nos architectures, et réduire celui-ci dès que cela est possible.
  3. Imaginer un monde numérique ouvert, accessible et interopérable, qui prend en compte les particularités d’usage de chacun et qui laisse une place aux outils libres ainsi qu’aux alternatives déconnectées pour ceux qui le souhaitent.
  4. Cesser de penser que le digital est LA solution à chacun des problèmes et savoir revenir en arrière, proposer des outils parfois plus simples et moins impactant quand ceux-ci sont suffisants.
  5. Ne jamais s’arrêter de penser positivement les outils numériques – dans la lignée de la volonté de diffusion et de construction de communs des pionniers du Web – tout en gardant conscience des limites et des effets néfastes de ceux-ci

En 2021, nous pouvons ainsi continuer d’être fiers de travailler dans une agence numérique et apporter notre pierre – modeste – à la construction d’un monde digital plus juste, inclusif et réellement utile.

C’est ça, être une agence numérique positive.

Dans une année 2020 riche en évènements et en rebondissements, une question se fait de plus en plus saillante : celle de la construction d’un « Numérique positif ».

Alors que la place des outils digitaux – du smartphone aux réseaux sociaux – ne se pose plus, celle de leur impact et de la façon d’en tirer le meilleur se fait de plus en plus urgente. Face aux manipulations, aux théories conspirationnistes, aux harcèlements et à l’impact écologique, quelle est la responsabilité et les actions possibles des acteurs du numérique ? Comme imaginer et bâtir ce meilleur ?

La réflexion qui suit se base sur de nombreuses lectures faites cette année, dont particulièrement : Ruined by Design de Mike Monteiro (2019) et Le Design des choses à l’heure du numérique de Jean-Louis Fréchin (2019). Décryptage.

Parler de Design ou d’UX ?

Mais avant de s’attaquer au fond du problème, une petite précision de vocabulaire… Si Mike Monteiro et Jean-Louis Fréchin abordent tous les deux le sujet de la responsabilité du Design dans la société et l’avenir de la planète, ils ne donnent pas le même sens à ce mot, différence de culture oblige. Jean-Louis Fréchin le rappelle d’ailleurs très bien dans l’ouverture du Design des Choses : l’origine du mot Design est complexe, et son sens a été filtré par bien des biais et des cultures. D’abord Italien, puis Français et Anglais aux XVIIIe et XIXe siècles, Allemand à l’aube du XXe siècle et Américain dans sa seconde moitié, le terme regroupe une foule d’imaginaire.

Dans Le Design des Choses, on parle de Design au sens européen, de la pratique issue à la fois de l’art et de l’architecture, qui vise à imaginer et concevoir des produits ambitieux, portant non seulement un usage, mais aussi une vision de société.

Dans Ruined by Design, Mike Monteiro lui aborde le Design sous son aspect américain issu des Trente Glorieuses et de la société de consommation née pendant la guerre froide. Un Design apporteur de solutions, répondant à un problème posé, et favorisant avant tout l’attractivité des produits et donc la consommation. Un Design qui trouve son expression la plus protocolaire dans les méthodologies UX qui fleurissent au sein des entreprises.

Un Design qui imagine d’un côté, un Design qui répond de l’autre. Des visions pas forcément opposées, mais qui, logiquement, apportent des réponses différentes à la problématique de la responsabilité sociétale et écologique du numérique.

Celui qui dit non

Ruined by Design, Mike Monteiro, auto-édition.
Ruined by Design, Mike Monteiro, auto-édition.

Commençons par Mike Monteiro. Dans Ruined by Design, il partage un long article de blog de 200 pages. Un texte à charge contre les GAFA – Facebook et Twitter en tête – et contre les usages abusifs du numérique aujourd’hui. Et ces charges sont lourdes : on pense d’abord à la responsabilité politique des plateformes sociales, notamment lors de l’élection de Donald Trump ou du referendum anglais sur le Brexit. Mais On parle également du refus de filtrer certains propos sur les plateformes sociales, de l’ensemble des biais qui existent aujourd’hui dans les algorithmes et aussi de l’impact environnemental de la consommation numérique.

Derrière ces filtres, ces biais, ces plateformes, il y a des designers – au sens américains – qui dessinent des réponses à des problématiques données. Ces problématiques étant le plus souvent « Comment gagner plus d’audience ? » ou « Comment gagner plus d’argent ? ». Aujourd’hui, un UX designer éthique peut-il encore, honnêtement, supporter et contribuer à ces plateformes ? Pour Mike Monteiro, la réponse est claire : c’est NON.

Mike Monteiro définit le rôle du designer comme celui d’une vigie, d’un gardien. Le designer est celui qui doit refuser les projets dont l’impact est négatif – pour la société, pour les individus, pour la planète – dénoncer ceux-ci et les rendre impossibles. La force du designer est sa capacité à refuser d’apporter les solutions quand la question posée n’est pas éthique, juste, honnête.

Celui qui imagine

Le design des choses à l'heure du numérique, Jean Louis Fréchin chez FYP.
Le Design des choses à l’heure du numérique – Jean Louis Fréchin, FYP.

Mais est-ce qu’aujourd’hui, dire non est encore suffisant ? Mike Monteiro milite pour la prise de conscience globale d’une industrie face à ses responsabilités et appellent à quitter, boycotter, ces géants menaçant la société humaine. Même si chaque goutte d’eau compte, c’est oublier aussi un peu vite qu’il y aura toujours quelqu’un pour endosser ce mauvais rôle. La logique du « NON » a ses limites, c’est les « OUI » des autres.

Dans Le Design des Choses, Jean-Louis Fréchin repose la question du rôle et de l’ambition des designers dans leur définition historique issue de la Renaissance italienne. En résumé, au risque d’être caricatural, le designer européen n’est pas là pour apporter des solutions, mais pour imaginer des possibles. À la différence de son homologue américain présenté par Mike Monteiro, il ne répond pas à des questions imposées, à un cahier des charges mais crée des systèmes entiers, dans leurs dimensions à la fois pratique, artistique mais également sociale et désormais environnementale.

Le designer de Jean-Louis Fréchin est un imagineur qui doit non seulement apporter des solutions pratiques, mais également imaginer, définir l’avenir vers lequel il veut tendre. Une approche qui demande des compétences complexes, un mélange de sensibilité et de capacité à produire, un croisement des héritages de l’art et de l’artisanat. Bref, un retour aux sources du Design européen.

Rien ne se gagnera seul

Mais face à l’urgence qu’il y a à bâtir à nouveau un Numérique positif, combinant à la fois les idéaux peut-être un peu naïfs des débuts et les aspects pragmatiques de la sphère économique digitale, y’a-t-il réellement opposition entre le Designer-qui dit-non et le Designer-qui-imagine ?

Aucun combat, surtout les plus complexes, ne se gagne sur un seul front. Et si l’on veut demain s’opposer à certains des modèles portés par les GAFA et dénoncés presque unilatéralement aujourd’hui, il faudra à la fois avoir le courage de refuser – d’utiliser et de concevoir – certaines solutions et l’imagination d’en créer de nouvelles. Combiner engagement et création, pragmatisme et idéal.

Notre rôle à nous, acteurs du numérique, est désormais d’assumer les deux combats. Il nous faut refuser, dans un souci d’éthique, les solutions qui nuisent aux individus, à la société, la planète et pointer du doigt ces dérives dès qu’elles se présentent, dans un brainstorming, un atelier, une co-construction. Cela nous impose de penser plus loin les impacts de nos projets, de nous interroger sur la consommation carbone d’un bouton vert ou de l’emprise mentale des applications que nous concevons. Et de passer tous nos chantiers à ce filtre. Éprouvant, mais nécessaire.

Mais notre rôle est également de lever le nez de nos claviers pour voir plus loin que chaque projet individuel pour imaginer de nouveaux usages, de nouveaux objets, de nouveaux langages du design qui génèrent à la fois un imaginaire, un nouvel enthousiasme et de l’appropriation. Il est temps de sortir le nez des seuls indicateurs de performance pour voir plus grand. Notre monde le mérite.

De quelque côté du Design que vous vous sentiez, dîtes-vous que pour un digital plus responsable demain, on aura besoin de tout le monde !

L’actualité technologique de l’été qui s’achève met, encore, à l’honneur les avancées et les inquiétudes qui entourent l’intelligence artificielle. On y parle en vrac de jeux vidéo et de voitures autonomes. Mais on y voit surtout l’occasion de rappeler une fois de plus que sans DATA, l’intelligence artificielle n’est finalement pas grand-chose.

Quand les immeubles sortent de terre…

D’abord, Microsoft Flight Simulator [1]. Le légendaire simulateur de vol est revenu cette année dans une nouvelle édition après quelques années d’absence. Et cette version permet de survoler l’intégralité du globe terrestre aux commandes de l’avion de votre choix. Pour arriver à cette prouesse – la modélisation de la Terre entière – Microsoft s’est basé sur les données géographiques disponibles dans l’Open Street Map Project [2] – un projet cartographique collaboratif mondial qui concurrence ouvertement les applications de Google et d’Apple.

Cette utilisation d’une base collaborative et open-data a permis aux développeurs du jeu de générer rapidement et à moindre coût l’ensemble des décors qui leur étaient nécessaires. Avec toutefois quelques surprises. Ainsi, les joueurs survolant Melbourne, en Australie, ont eu la surprise de découvrir dans les faubourgs de la ville une tour de plusieurs centaines de mètres de hauteur, là où n’existent dans la réalité que de bien classiques pavillons de banlieue [3]. La faute à… une faute de frappe. L’un des contributeurs d’Open Street Map aura, peu de temps avant la récupération des données par Microsoft, complété les données de ce quartier de Melbourne et indiqué que l’un des bâtiments comporte 212 étages au lieu de… deux.

Une simple erreur, certes, mais une erreur qui n’a pas été détectée par l’intelligence artificielle chargée de créer l’ensemble des décors du jeu. D’ailleurs, l’utilisation de celle-ci a également fait l’objet de critique de la part de nombre de joueurs. En effet, pour l’IA de Microsoft, un bâtiment est un bâtiment comme un autre, et un pont et un pont comme un autre, quels que soient son importance et son aspect patrimonial. Ainsi, le Palais de Buckingham à Londres s’est vu doté du même look qu’un immeuble de bureau quelconque [4], et le pont du port de Sydney a perdu ses célèbres arches [5]. Des maladresses qui seront corrigées prochainement par les concepteurs du jeu, mais qui montrent bien les limites d’une IA dans la reproduction de la diversité terrestre.

… et que les voitures freinent toutes seules

Plus inquiétante est l’expérience menée par des scientifiques israéliens au cours du mois d’août. A l’aide d’un drone équipé d’un projecteur, ceux-ci ont réussi à tromper les capteurs d’une voiture autonome de type Tesla [6]. En projetant l’image d’un piéton ou d’une autre voiture, ils ont ainsi provoqué un freinage d’urgence de la part du véhicule. Mais plus grave, en projetant des lignes au sol, ils ont réussi à faire dévier la Tesla – alors en mode autonome – de sa trajectoire initiale. On peut imaginer à partir de cette expérience tout type de manipulation de l’intelligence artificielle qui conduit le véhicule : de nouveaux panneaux, des limitations de vitesse fantaisiste et pourquoi le « masquage » de certains éléments réels de l’environnement.

Tromper les capteurs d’une voiture autonome n’est pas une idée nouvelle. Un artiste anglais, James Bridle, avait déjà imaginé en 2017 un Car Trap [7], un cercle qui prendrait au piège les véhicules autonomes et les empêcherait de s’échapper. Une vue d’artiste qui révèle les lacunes du système.

Une IA, ça ne doute pas

Ces deux expériences ne sont que des extraits de l’actualité qui a entouré l’IA au cours des derniers mois. Elles ne reflètent pas, par exemple, les progrès enregistrés par les chercheurs dans les domaines médicaux grâce aux programmes d’intelligence artificielle. Mais, sans invalider la notion même d’IA, elles nous font nous poser quelques questions cruciales pour la maîtrise de cette technologie qui semble appeler à dominer nos vies.

Qu’est-ce qui fait, pour une intelligence artificielle, la véracité d’une donnée ? Le moteur de rendu de Microsoft Flight Simulator ne s’est pas posé la moindre question avant de représenter une tour de 212 étages au milieu des faubourgs de Melbourne. Pas plus que l’intelligence artificielle de la Tesla quand elle a vu apparaître une silhouette humaine face à elle. Les intelligences artificielles, tout comme les algorithmes simples, ne sont pas conçus aujourd’hui pour s’assurer de la véracité, et encore de moins de la réalité, d’une donnée. Ils sont conçus pour traiter des données en entrée et en déduire le comportement le plus adapté : quelle texture appliquer à un immeuble, dans quelle direction aller, etc.

Que se passe-t-il donc quand la donnée qui leur est fournie est fausse ? Volontairement ou non. Quand une erreur s’est glissée dans un fichier ? Quand une manipulation a été faite avec une intention peu louable ? Ou simplement lorsqu’une information est manquante et que la Data ne permet pas une prise de connaissance complète de l’environnement ?

Et l’état, les intelligences artificielles dont on parle régulièrement ne détectent bien souvent pas ces erreurs ou ces manipulations – sauf si elles sont conçus spécifiquement pour cela comme celles qui traquent au quotidien les deepfakes [8] – même si elles mènent à des aberrations. Une IA, par définition, ne doute pas. Il est donc crucial, à mesure que les algorithmes prennent de la place dans notre quotidien, de savoir qui maîtrise la réalité et de s’assurer – faute d’instiller du doute chez les robots – de la fiabilité de toutes les informations utilisées par nos futurs systèmes.

La leçon vaut pour tout système qui entend traiter automatiquement de l’information. A l’heure où il n’a jamais été aussi facile de créer du contenu – qu’il s’agisse de faux profils sur les réseaux sociaux [9] ou de faux articles dans les revues scientifiques [10] – et parfois d’articles créés à l’aide d’une intelligence artificielle [11] – il convient d’être de plus en plus prudent avant d’affecter un traitement à une données. La vérification des données, mais également leur certification, doit devenir un point crucial de la politique numérique des entreprises. A défaut, aucun déploiement d’intelligence artificielle ne pourra se faire sans danger.

Alors, si vous ne voulez pas rater la révolution de l’IA, commencer par maîtriser celle de la DATA.