Articles

Le numérique n’a pas fait de pause pendant l’été. Et pour cette rentrée 2023, les agences digitales et les directions digitales vont être confrontées à de nouveaux sujets de réflexion.

Nouveaux ? Pas vraiment… Les grands questionnements de cette nouvelle année bourgeonnent finalement depuis quelques mois, voire quelques années. Mais l’été en a rendu certains plus importants, voire pressants, que d’autres. Et les actualités de ces mois de juillet et d’août vont peut-être mener à une réorientation des stratégies de certaines marques.

Passage en revue de trois enjeux que toute entreprise devra prendre en compte dans les mois qui viennent.

La place de l’IA dans la création numérique

Le sujet n’est pas nouveau, et s’il fait moins la une des magazines professionnels, il reste dans toutes les têtes. L’intelligence artificielle, ou plutôt les modèles génératifs comme ChatGPT et Midjourney, continue de faire couler beaucoup d’encre. Mais la phase d’étonnement semble désormais passée. Sur les réseaux sociaux, les messages impressionnés par les capacités des algorithmes se font de plus en plus rares. Et les quelques cases créatifs présentés lors du Festival international de la créativité de Cannes – les fameux Lions – n’ont finalement pas raflé la mise.
On est donc très logiquement passé à l’étape suivante : l’intégration business.

Ainsi, les outils génératifs sont en train d’envahir notre quotidien bureautique, numérique et créatif. Adobe a présenté au printemps Firefly, son moteur d’intelligence artificielle intégré à Photoshop. Google continue lui à tester BARD – son interface de dialogue intelligente devant concurrencer ChatGPT – et commence à déployer sa génération suivante d’intelligence artificielle : PaLM2. Les plateformes se multiplient ainsi, et les grands groupes, tel Microsoft, continuent d’annoncer l’intégration d’IA à leurs produits et suite logicielle.

Devant la pléthore de produits et d’offres IA, la question pour l’industrie créative devient plus humaine que technologique : comment intégrer l’IA dans son écosystème économique ? Remplacer des ressources déjà précaires ? Faire évoluer ses prestations, et forcément leur tarification ? Refuser l’intrusion trop forte des algorithmes dans le monde de l’imagination ? Les prochains modèles génératifs aideront peut-être à trancher. Des rumeurs font en effet état d’une nouvelle version de ChatGTP moins performante que ses ainées, rendu confuse et imprécise par le trop de données qui lui était confiées. L’intelligence artificielle aurait-elle ses limites ?

L’éclatement des réseaux sociaux

C’est l’autre grand chamboulement de cette rentrée, même si ses prémisses datent d’il y a plus d’un an. À la suite du rachat de Twitter par Elon Musk en novembre dernier, l’ensemble des plateformes sociales qui dominaient le Net depuis une bonne dizaine d’années semblent chacun chercher leur nouveau souffle.

Twitter s’épuise. Tantôt raillé, tantôt critiqué, le réseau a coup sur coup limité ses services – le non-accès des Tweets aux non-abonnés – modifié son algorithme, changé de nom (appelez-le désormais X)… et semble de moins en moins crédible en tant que réseau social grand public. Si l’algorithme publicitaire semble bien plus généreux qu’avant, il n’est pas certain que les annonceurs se ruent encore sur les posts sponsorisés. De nombreux utilisateurs se font d’ailleurs discrets tant les messages et les prises de positions y deviennent clivants.

La guerre de succession est donc ouverte. Mastodon, son architecture décentralisée et son système d’instance, ne séduiront sans doute pas le grand public. Ce n’est d’ailleurs pas leur objectif. Et les premiers retours concernant Threads – réseau développé à la hussarde et intégré à l’écosystème Facebook – ne semblent pas probants : problème de confidentialité des données, utilisateurs fantômes… et surtout interdiction temporaire du réseau au sein de l’Union Européenne en raison de sa trop grande capacité à aspirer les données des utilisateurs.

Reste à savoir si toutes ces péripéties ne sont que les étapes préparatoires à l’émergence d’un nouveau grand réseau social populaire (peut-être TikTok ?), ou sont les derniers soubresauts d’un modèle – le Web social se voulant universel… et publicitaire – moribond.

L’impact écologique du numérique

La dernière tendance prêtera sans doute moins à sourire. La question de l’impact écologique du numérique n’a jamais été aussi urgente. On sait que la plus grande partie de la pollution, et de l’impact carbone lié au numérique est d’abord le fait de la fabrication des terminaux. Extraction des métaux rares, usinage, transport depuis les pays asiatiques jusqu’en Europe et aux USA, le bilan écologique de nos appareils est énorme, et les règles d’obsolescence édictées par certains acteurs – dont Google qui interdit les mises à jour d’application sur des OS trop anciens – doivent clairement être questionnées pour réduire celui-ci.

Mais cet été, face à la sécheresse faisant rage dans de nombreux pays européens, d’autres questions méritent d’être soulevées. Le développement de plusieurs projets de Datacenters, en Espagne notamment, pose clairement la question de l’accès à l’eau et des priorités de celui-ci : cette ressource commune doit-elle servir à l’alimentation des populations, à l’irrigation des cultures ou au refroidissement des machines stockant nos données ? Les crises hydriques vont sans doute se multiplier dans les années à venir. Elles vont rendre plus grave encore la responsabilité des entreprises dans leurs choix technologiques : peut-on solliciter des partenaires dont les installations s’établissent là où l’accès à l’eau est déjà tendu ?

Et d’une manière plus générale, l’ensemble de nos développements numériques – passés et à venir – sont-ils toujours nécessaires ? Une question qu’il semble important que dirigeants et agences se posent, dès cette rentrée.

robots writing contents

Les tutoriaux fleurissent aux quatre coins du Web depuis le début de l’année. Vous n’avez pas pu vraiment passer à côté : les intelligences artificielles génératives sont devenues, en moins de 6 mois, les armes absolues de n’importe quelle stratégie éditoriale et SEO. Et à en croire les gourous du secteur, ces IA peuvent réellement tout faire : identifier les sujets porteurs à mettre en avant sur vos sites, structurer votre propos pour qu’il accroche l’internaute et surtout rédiger les contenus à la chaîne.

Contenu dont vous n’avez plus qu’à bourrer votre CMS pour ressortir très vite en bonne position sur une infinité de mots-clés porteurs de valeur et de ROI. Une nouvelle recette miracle donc.

Mais en vérité, rien n’est si simple. Et si les outils génératifs peuvent bien aider au déploiement d’une stratégie éditoriale mûrement réfléchie en amont, ils ne sont pas pour autant la réponse à tout. Loin de là. Le recours à l’intelligence, et la plume, humaine semble encore avoir de beaux jours devant lui pour qui entreprend d’accompagner de véritables entreprises dans leur stratégie de référencement naturel.

Un génie qui ne sait pas tout faire

De tous les outils de création intelligente de contenus apparus sur le Net ces derniers mois, ChatGPT est sans doute celui qui a fait couler le plus d’encre virtuelle. D’abord présenté comme une interface conversationnelle, il a très rapidement trouvé sa place dans la boîte à outil du Content Marketing. Et c’est vrai qu’à toute première vue, son modèle et les résultats qu’on peut en tirer sont assez impressionnants.

Chacun, ou presque, des professionnels du numérique a pu tester les possibilités de la plateforme générative d’openAI. Mieux que de répondre simplement à des questions, elle peut incarner une opinion – à condition que celle-ci reste éthique et dans les règles d’utilisation édictées par ses concepteurs – et défendre un argumentaire précis sur un sujet donné. Elle peut rédiger ses contenus sous une forme prédéfinie (une recette, une liste d’étapes, des phrases courtes ou des formules précises…). Elle peut également aborder une infinité de thème, en un temps record. Bref, ChatGPT fait montre d’une largesse de gamme et d’une agilité dans la rédaction sans aucun rapport avec les capacités humaines.

De là à crier au remplacement des rédacteurs, il n’y a qu’un pas.

Les raisons de cette performance et de cette facilité à produire rapidement du contenu sur tout et n’importe quoi ? Au-delà de la prouesse technologique que représente le Large Language Model sur lequel ChatGPT se base, c’est sans doute l’impressionnante quantité de connaissances sur laquelle ce modèle a été entraîné qui l’explique le mieux. Des articles, des contenus, des textes par millions, couvrant des milliers de sujets et chacun rédigé dans un style bien particulier. Contenu et style que l’intelligence artificiel a pu analyser, décortiquer et enfin reproduire, à défaut de le comprendre.

Car oui, l’IA est avant tout une formidable machine à… reproduire.

Éviter les écueils artificiels

C’est là le principal piège de ce qu’on appelle les intelligences artificielles génératives utilisées dans le cadre d’une stratégie marketing : penser qu’elles sont autre chose que des photocopieuses très douées – des perroquets stochastiques pour reprendre l’expression de la chercheuse américaine Emily Bender – et s’imaginer qu’elles sont réellement dotées d’une intelligence. Car aucune des IA présentées au cours des dernières années n’est capable de réellement comprendre ce qu’elle écrit.

Elles restent des machines purement rhétoriques, capables uniquement de donner à leurs productions un aspect crédible sans se soucier du contenu réel partagé. Les démonstrations se sont multipliées au cours des derniers mois : les différents testeurs de l’IA ont vu apparaître successivement des citations erronées, des sources fantaisistes, voire clairement inventées et parfois des références à des auteurs ou scientifiques qui n’ont simplement jamais existé. De quoi jeter le doute sur tout contenu produit par des machines.

C’est que les IA ne connaissent ni le vrai, ni le sens des mots. Elles sont conçues avant tout pour assembler ces mots et en faire des phrases compréhensibles et crédibles. Elles peuvent donc être induites en erreur par des sources trompeuses. Comment savoir combien d’erreurs, intentionnelles ou non, se sont glissées dans les peta-octets dont elles se sont nourries pendant leur entraînement ?

Surtout, elles ne peuvent pas challenger la vérité de leur production, seulement sa vraisemblance. Alors, souvent, elles inventent des contenus dont la structure grammaticale, dont le sens est parfaitement plausible. Mais qui n’est pas vrai pour autant. Le faux, c’est l’un des risques aujourd’hui de l’usage des IA génératives pour le marketing de son entreprise. 

Les plus grands promoteurs de l’IA, comme Microsoft et Google, ont d’ailleurs commencé à prévenir leurs utilisateurs sur ces écueils.

Un usage humain de l’IA

Si l’on ne peut garantir la véracité des contenus produits par les modèles génératifs, est-il alors prudent d’user de l’intelligence artificielle pour produire les contenus de sa marque, que ceux-ci aient une portée simplement SEO ou plus ambitieuse ?

La réponse semble évidente : la promesse d’une automatisation totale de la production de contenu et du remplacement de votre équipe de rédacteurs par des robots dans les mois qui viennent semble n’être qu’un épouvantail posé par quelques vendeurs de solutions miracles.

Tous les retours d’expérience, dans le domaine de la rédaction, partagés ces derniers mois montrent que l’humain a encore pleinement sa place dans la sphère éditoriale digitale. Et pour de nombreuses raisons. D’abord parce que si ce que l’IA écrit n’est pas fiable – en termes de véracité de l’information – il est important que l’humain reste partie prenante de l’aventure pour vérifier chacun des propos avancés. Ensuite parce que, même si les robots semblent avoir des qualités de plume certaines, il reste peu probable qu’ils maîtrisent demain le tone of voice précis de votre marque, son identité, ses imaginaires. La capacité à ciseler à texte pour en faire quelque chose qui correspondra réellement à votre brand identity restera résolument humain, même avec l’augmentation de la compétence des algorithmes.

Enfin, et c’est la meilleure raison, parce qu’aujourd’hui aucune intelligence artificielle n’est capable de créer du contenu sans qu’on lui dise exactement quoi créer. Si les modèles génératifs peuvent bien entendu aider à identifier un sujet ou un angle, comme un sparing partner ou comme le Dr Wilson aide le Dr House à trouver le diagnostic, ils le font car l’humain les challenge, les requête, les interroge. La révolution dans le monde de la rédaction Web que pourrait engendrer l’intelligence artificielle générative, c’est l’émergence d’un nouveau métier de prompt designer, un spécialiste capable de faire produire à une machine un texte le plus proche possible du brief du client. Un métier précis, certes. Demandant une compétence technique, oui. Mais un métier qui aura toujours besoin de comprendre à la fois l’ADN d’une marque et la stratégie de communication d’une entreprise. Un métier de communicant.

Crever la bulle générative

L’IA n’est donc qu’un outil. Un outil que de nouveaux spécialistes vont apprivoiser et s’approprier. Un outil qui permet déjà et permettra plus encore demain de créer, sans doute plus rapidement, une plus large quantité de contenus pour les marques. Et c’est l’écueil principal des outils génératifs pour le SEO et la communication digitale de manière plus large : le raz-de-marée.

En rendant plus simple la création de contenus, en faisant la promesse de la mettre à la portée de tous, les plateformes comme ChatGPT abaissent les barrières qui empêchaient certains acteurs d’avoir des stratégies éditoriales à bas coûts et agressives. Elles permettent à certaines entreprises d’industrialiser leur production de contenu. Au risque de saturer un marché du contenu déjà bien près de l’overdose.

Une vague de création éditoriale risque donc vite de déferler sur le Web. Elle a d’ailleurs déjà commencé, il vous suffit de chercher les mots-clés « regenerate response » (intitulé du bouton permettant d’obtenir une réponse alternative dans l’interface de ChatGPT) sur Google pour s’en convaincre. Une vague qui affectera les résultats des moteurs de recherche et le comportement des internautes mais seulement jusqu’à la prochaine mise à jour des algorithmes de Google.

La tendance actuelle est de penser que la bulle de l’IA se dégonflera comme s’est percée celle du métaverse, cet univers virtuel qui allait, il y a un an à peine, révolutionner notre rapport au numérique et au monde. La vérité est sans doute plus proche du scénario suivant : les IA resteront, mais comme un outil, pas comme une révolution. Un outil de plus dans la boîte des spécialistes du marketing digital et qui leur permettra d’améliorer et d’optimiser leur production. Mais qui ne sera ni indépendante, ni ne remplacera l’intervention humaine. Loin de là.

Il semblerait donc qu’en cette fin d’année, les Intelligences Artificielles aient décidé de totalement chambouler le monde de la création. On les savait déjà capables de détecter des cancers précoces ou de piloter des voitures. On les sait, depuis cette année, capables de s’inspirer des plus grands artistes pour créer des – ouvrez les guillemets – œuvres d’art et plus récemment encore de tenir une conversation d’un niveau presqu’humain avec un autre humain.

Les Intelligences artificielles seraient-elles réellement devenues aussi intelligentes que leurs créateurs. Retour sur un mythe qui a la peau dure.

Papa, c’est quoi une IA ?

Mais d’abord, c’est quoi exactement une intelligence artificielle ?

Une Intelligence Artificielle, qu’elle assiste un médecin ou fasse des gribouillis, n’est avant tout qu’un programme informatique. Une suite d’instructions logiques, codées avec plus ou moins de complexité, qui édicte les réactions d’un ordinateurs ou d’un robot. Un petit retour dans le Dictionnaire Larousse de l’Informatique de 1981, pour la forme, confirme les limites du concept :

« Parler d’intelligence artificielle constitue, en fait, un abus de langage, puisque l’automate est basé sur un modèle (un ou plusieurs algorithmes) qui réagit uniquement suivant les stratégies préétablies. »

Depuis 1981, la technologie et les capacités des machines ont certes évoluées. Et les derniers développements en informatiques permettent d’envisager des programmes évolutifs, c’est-à-dire capable d’apprendre rapidement à partir d’un lot de données et de faire évoluer leur comportement au fur et à mesure de leurs interactions avec les utilisateurs. D’où, d’ailleurs, les multiples prototypes de programmes ouverts au grand public sur le Net. L’engouement qu’ils provoquent permet de « nourrir les algorithmes » et d’assurer rapidement un volume de données de test à ces derniers pour en améliorer les performances.

Mais pour évoluée qu’elle soit, l’intelligence artificielle ne reste aujourd’hui qu’un programme informatique presque comme un autre. Simplement, les unes de la presse provoquent bien souvent plus de clic sur un « Une intelligence artificielle apprend seule l’espagnol » que sur un « Un programme informatique bat le meilleur joueur de bridge de la planète. » Toute question de respect pour les joueurs de bridge mise à part.

L’intelligence, réelle, comparable à celle des humains, n’est pour l’instant qu’une affaire de science-fiction. Et le HAL 9000 de l’Odyssée de l’Espace n’a pas encore vu le jour.

Détecter l’intelligence.

Mais, en admettant qu’une intelligence artificielle émerge, dans les prochains mois ou prochaines années, des milliards de lignes de code produites chaque jour, une question demeure : serions-nous à même de la détecter ? De la reconnaître ?

La question est importante et a occupé l’esprit de plusieurs scientifiques et auteurs de science-fiction. On en retiendra trois dont les réflexions gravitent autour de cette question.

Tout d’abord, Carl Sagan, scientifique et astronome américain à l’origine entre autres du programme de détection des intelligences extraterrestres SETI. Carl Sagan s’est longtemps posé la question de la possible détection d’une intelligence non-terrienne, existant quelque part dans l’univers. C’est une affaire de probabilité – pouvons-nous réellement être seuls dans cette immensité – mais également de capacité à reconnaître l’intelligence. Comment, dans la foule des ondes et des sons émis par les corps célestes pourrions nous reconnaître un schéma, un bruit, une forme qui, nous en serions certains, serait produite artificiellement ? La question est bonne et Carl Sagan n’y apporte pas de réponse ferme. Il émet simplement des hypothèses. Mais force est de constater que la recherche d’une intelligence extraterrestre et l’espoir en une intelligence artificielle ont de nombreux points communs.

En fait, c’est Alan Turing, dans les années 1950, qui se sera penché le premier sur l’intelligence des machines, se posant une question centrale : les machines ont-elles la capacité de réfléchir. Il n’apporte, lui non plus, pas de réponse directe, mais imagine un test pour détecter cette intelligence. Isolez une machine dans une pièce et assurez-vous que celle-ci ne puisse communiquer qu’à l’aide d’un terminal informatique. Placez un humain à l’autre bout de ce terminal et demander lui d’entamer un dialogue. Si au bout de ce dialogue, il ne peut savoir si son interlocuteur est numérique ou humain, alors la machine aura réussi le test de Turing et pourra être déclarée intelligente. L’intelligence de la machine devient dépendante de la perception humaine. Alan Turing défend son test lui-même dans ses écrits, précisant que l’intelligence est finalement un mécanisme interne et que nulle ne peut en juger de l’extérieur.

La réflexion sera, grosso-modo, la même chez l’auteur de science-fiction Philip K. Dick dans les années 1960. Dans la nouvelle qui deviendra Blade Runner, il imagine le test de Voight-Kampff : une épreuve basée sur la compréhension des situations stressantes, humiliantes et sur l’analyse des émotions, ou plutôt de leur manifestation. Un androïde, réfugié sur Terre, ne réagira pas comme un humain à certaines hypothèses et pourra donc être identifié par le Blade Runner, le détective chargé de le traquer. Là encore, comme chez Turing, l’appréciation de l’humanité est laissée à la discrétion d’un humain. Et Philip K. Dick évoque explicitement les possibilités d’erreur dans son roman : oui Deckard, le héros, a déjà « retiré » un humain par erreur.

Un air de magie.

La question n’est donc pas tant de savoir si une machine est devenue intelligente, que de savoir comme nous percevons cette supposée intelligence. Si nous avons envie d’y croire. Tout comme pour un tour de magie.

La magie, on le sait, est l’art de détourner l’attention et de montrer ce à quoi le public est prêt à croire. Le prestidigitateur qui s’emparera de votre montre vous aura d’abord incité à regarder ailleurs. Les cartes n’apparaissent pas subitement. Elles sont toujours quelque part, mais vous n’y prêtez pas réellement attention.

Pour l’intelligence artificielle, c’est la même chose. On l’a dit : une IA n’est qu’une suite d’instructions plus ou moins très complexe qui exploite une base de connaissances existantes pour fournir un nouveau résultat. Une intelligence artificielle ne réfléchit pas, elle assemble, compile des données. Ainsi, les programmes qui veulent aujourd’hui remplacer les artistes utilisent avant tout des banques d’images par milliers et en croise les métadonnées et les références. Les programmes qui dialoguent avec vous ont été nourris avec des centaines d’articles et d’histoires avant de vous être présentés.

Il n’y a pas de magie derrière tout cela, pas plus que d’intelligence. Mais si on n’y regarde que rapidement, ou si l’on ne se penche pas sur les arcannes de ces nouveaux compagnons, on serait tenté de se bercer d’illusions et de voir dans ces programmes des êtres doués de raison.

Et pourquoi pas ?

La seule question finalement, c’est : Avez-vous réellement envie d’y croire ?

L’actualité technologique de l’été qui s’achève met, encore, à l’honneur les avancées et les inquiétudes qui entourent l’intelligence artificielle. On y parle en vrac de jeux vidéo et de voitures autonomes. Mais on y voit surtout l’occasion de rappeler une fois de plus que sans DATA, l’intelligence artificielle n’est finalement pas grand-chose.

Quand les immeubles sortent de terre…

D’abord, Microsoft Flight Simulator [1]. Le légendaire simulateur de vol est revenu cette année dans une nouvelle édition après quelques années d’absence. Et cette version permet de survoler l’intégralité du globe terrestre aux commandes de l’avion de votre choix. Pour arriver à cette prouesse – la modélisation de la Terre entière – Microsoft s’est basé sur les données géographiques disponibles dans l’Open Street Map Project [2] – un projet cartographique collaboratif mondial qui concurrence ouvertement les applications de Google et d’Apple.

Cette utilisation d’une base collaborative et open-data a permis aux développeurs du jeu de générer rapidement et à moindre coût l’ensemble des décors qui leur étaient nécessaires. Avec toutefois quelques surprises. Ainsi, les joueurs survolant Melbourne, en Australie, ont eu la surprise de découvrir dans les faubourgs de la ville une tour de plusieurs centaines de mètres de hauteur, là où n’existent dans la réalité que de bien classiques pavillons de banlieue [3]. La faute à… une faute de frappe. L’un des contributeurs d’Open Street Map aura, peu de temps avant la récupération des données par Microsoft, complété les données de ce quartier de Melbourne et indiqué que l’un des bâtiments comporte 212 étages au lieu de… deux.

Une simple erreur, certes, mais une erreur qui n’a pas été détectée par l’intelligence artificielle chargée de créer l’ensemble des décors du jeu. D’ailleurs, l’utilisation de celle-ci a également fait l’objet de critique de la part de nombre de joueurs. En effet, pour l’IA de Microsoft, un bâtiment est un bâtiment comme un autre, et un pont et un pont comme un autre, quels que soient son importance et son aspect patrimonial. Ainsi, le Palais de Buckingham à Londres s’est vu doté du même look qu’un immeuble de bureau quelconque [4], et le pont du port de Sydney a perdu ses célèbres arches [5]. Des maladresses qui seront corrigées prochainement par les concepteurs du jeu, mais qui montrent bien les limites d’une IA dans la reproduction de la diversité terrestre.

… et que les voitures freinent toutes seules

Plus inquiétante est l’expérience menée par des scientifiques israéliens au cours du mois d’août. A l’aide d’un drone équipé d’un projecteur, ceux-ci ont réussi à tromper les capteurs d’une voiture autonome de type Tesla [6]. En projetant l’image d’un piéton ou d’une autre voiture, ils ont ainsi provoqué un freinage d’urgence de la part du véhicule. Mais plus grave, en projetant des lignes au sol, ils ont réussi à faire dévier la Tesla – alors en mode autonome – de sa trajectoire initiale. On peut imaginer à partir de cette expérience tout type de manipulation de l’intelligence artificielle qui conduit le véhicule : de nouveaux panneaux, des limitations de vitesse fantaisiste et pourquoi le « masquage » de certains éléments réels de l’environnement.

Tromper les capteurs d’une voiture autonome n’est pas une idée nouvelle. Un artiste anglais, James Bridle, avait déjà imaginé en 2017 un Car Trap [7], un cercle qui prendrait au piège les véhicules autonomes et les empêcherait de s’échapper. Une vue d’artiste qui révèle les lacunes du système.

Une IA, ça ne doute pas

Ces deux expériences ne sont que des extraits de l’actualité qui a entouré l’IA au cours des derniers mois. Elles ne reflètent pas, par exemple, les progrès enregistrés par les chercheurs dans les domaines médicaux grâce aux programmes d’intelligence artificielle. Mais, sans invalider la notion même d’IA, elles nous font nous poser quelques questions cruciales pour la maîtrise de cette technologie qui semble appeler à dominer nos vies.

Qu’est-ce qui fait, pour une intelligence artificielle, la véracité d’une donnée ? Le moteur de rendu de Microsoft Flight Simulator ne s’est pas posé la moindre question avant de représenter une tour de 212 étages au milieu des faubourgs de Melbourne. Pas plus que l’intelligence artificielle de la Tesla quand elle a vu apparaître une silhouette humaine face à elle. Les intelligences artificielles, tout comme les algorithmes simples, ne sont pas conçus aujourd’hui pour s’assurer de la véracité, et encore de moins de la réalité, d’une donnée. Ils sont conçus pour traiter des données en entrée et en déduire le comportement le plus adapté : quelle texture appliquer à un immeuble, dans quelle direction aller, etc.

Que se passe-t-il donc quand la donnée qui leur est fournie est fausse ? Volontairement ou non. Quand une erreur s’est glissée dans un fichier ? Quand une manipulation a été faite avec une intention peu louable ? Ou simplement lorsqu’une information est manquante et que la Data ne permet pas une prise de connaissance complète de l’environnement ?

Et l’état, les intelligences artificielles dont on parle régulièrement ne détectent bien souvent pas ces erreurs ou ces manipulations – sauf si elles sont conçus spécifiquement pour cela comme celles qui traquent au quotidien les deepfakes [8] – même si elles mènent à des aberrations. Une IA, par définition, ne doute pas. Il est donc crucial, à mesure que les algorithmes prennent de la place dans notre quotidien, de savoir qui maîtrise la réalité et de s’assurer – faute d’instiller du doute chez les robots – de la fiabilité de toutes les informations utilisées par nos futurs systèmes.

La leçon vaut pour tout système qui entend traiter automatiquement de l’information. A l’heure où il n’a jamais été aussi facile de créer du contenu – qu’il s’agisse de faux profils sur les réseaux sociaux [9] ou de faux articles dans les revues scientifiques [10] – et parfois d’articles créés à l’aide d’une intelligence artificielle [11] – il convient d’être de plus en plus prudent avant d’affecter un traitement à une données. La vérification des données, mais également leur certification, doit devenir un point crucial de la politique numérique des entreprises. A défaut, aucun déploiement d’intelligence artificielle ne pourra se faire sans danger.

Alors, si vous ne voulez pas rater la révolution de l’IA, commencer par maîtriser celle de la DATA.

Lentille connecté

On parlait il y a deux semaines de la curiosité et du temps nécessaire à celle-ci [1]. Le monde digital actuel, et la façon dont il est conçu, vise à consommer notre temps. Et nombreux sont les acteurs de la Silicon Valley et les analystes à avoir pointé ces travers. Mais deux des révolutions technologiques en cour vont avoir un impact bien plus grand sur notre temps et sur la place du monde digital dans notre vie. Un impact sur notre perception même du monde réel.

La fin des écrans

Jusqu’ici, quand on pensait au monde digital, on pensait avant tout aux écrans. Nous avons commencé à expérimenter le Web grâce aux écrans des ordinateurs. Nous avons prolongé cette expérience via tablettes et smartphones. En conséquence, notre conception actuelle des interactions digitales est basée sur un ensemble de ruptures. Des ruptures de plus en plus fines et transparentes, mais des ruptures tout de même.

Il y a 15 ans, pour chercher quelque chose sur Internet, il fallait utiliser un ordinateur et prendre le temps de la connexion et de la recherche, éplucher plusieurs résultats avant de trouver l’information ou le produit que nous voulions. Et souvent, avant d’acheter quelque chose en ligne, nous devions par exemple vérifier la fiabilité du site sur lequel nous souhaitions effectuer un achat.

Il y a 15 ans, le temps digital était un temps dédié, un « Attends, je vais regarder sur Internet ».

Avec les tablettes et les smartphones, mais aussi avec l’habitude d’utilisation et la confiance en l’univers digital, ces ruptures se sont réduites. Aujourd’hui, nous avons gardé le réflexe du « Je vais regarder sur Internet. », mais ce réflexe est devenu à la fois plus rapide et nomade. Plus rapide, parce que le smartphone est dans notre poche en permanence et qu’il est facile de le sortir, le déverrouiller et de taper une requête. Nomade, parce que nous avons désormais accès à une connexion permanente, continue, qui nous permet d’accéder à l’univers digital dans la rue, le métro ou en voiture.

Les seules ruptures qui subsistent encore dans notre expérience digitale, ce sont les ruptures de l’attention et de la manipulation. Le smartphone sollicite à la fois nos mains et nos yeux et nous oblige à nous concentrer sur la manipulation qu’il impose. Le regard se pose sur le smartphone, captant notre attention et interrompant la conversation en cours. Les mains sont nécessaires pour activer les interfaces tactiles de notre téléphone, stoppant les autres actions en cours. Attention et manipulation sont aujourd’hui les frontières du monde digital – tant il est devenu naturel d’y recourir ou d’anticiper son usage dans notre cerveau. Et ces frontières sont sur le point d’être abolies.

La fin de la déconnexion

La fin de la séparation « physique » entre le monde réel et le monde digital – effet de vocabulaire, le monde digital est aussi « réel » qu’un autre – a débuté en 2011 avec l’intégration de l’assistant Siri aux iPhones. En proposant un programme permettant d’interagir par la voix, de formuler ses questions vocalement et d’entendre les réponses, Apple a réduit une des ruptures évoquées plus tôt, celle de l’attention : plus besoin de détourner le regard vers un écran pour interroger le Net et commander un taxi ou savoir qui était roi de France en 1463. La formulation de la réponse à l’oral contribue de la même façon à la continuité de l’expérience réelle. Siri se glisse dans la conversation assez naturellement.

La seule rupture reste celle de la manipulation : déverrouiller le téléphone, lancer le programme de l’assistant. Et cette seconde rupture est en train de disparaître grâce aux assistants vocaux qui vont rapidement peupler nos maisons. Les bornes Google Home ou Amazon Alexa, en restant en permanence aux aguets et en se dispensant d’écran, se glissent naturellement dans les interactions quotidiennes. Au bureau, il devient « normal » au cours d’une conversation entre collègue d’interpeller Google pour lui demander une précision. Il y a peut-être encore un peu de dérision, de digression, dans cette demande… principalement du fait que toute nouveauté technologique semble un gadget pour geeks aux premiers utilisateurs, mais les usages s’installent doucement.

L’interaction vocale devient naturelle, et porte en elle l’avènement du web ambiant.

Le web ambiant : c’est justement la fin de la déconnexion et du monde digital tel qu’on le connaît depuis 25 ans.
Avec l’avènement des assistants vocaux domestiques, le Web n’est plus un outil supplémentaire accessible le temps d’une demande, il est une couche d’information supplémentaire de la réalité, qui ajoute un degré de connaissance ou de service aux interactions quotidiennes.

Les audioguides des musées (ici au Louvre), une expérience concrète de réalité augmentée

Les audioguides des musées (ici au Louvre), une expérience concrète de réalité augmentée

Pour certains, l’audio est même la première expérience de réalité augmentée vraiment réussie et populaire. Les audio-guides des musées, en commentant œuvres et salles, répondent à cette définition d’une surcouche informative sur la l’expérience concrète, physique.

Reste, pour que la frontière monde concret / monde digital ne disparaisse concrètement à imaginer des interfaces et expériences qui iront plus loin que la voix.

Les expériences visuelles de réalité augmentée – de réalité modifiée, diminuée, altérée… quelque soit le terme employé – ne sont pour l’instant que des expériences. En cause ? Principalement les défauts d’interface des terminaux qui ne permettent pas aujourd’hui de gommer les ruptures de manipulation entre le monde physique et digital.

Il faut toujours enfiler un casque, dépendre d’une connexion, lever son téléphone ou sa tablette… Autant de gestes qui rompent l’expérience concrète et rendent l’expérience augmentée / alternative plus technologique que pratique.

Second Life, ou le fantasme de l'univers virtuel indépendant, est toujours actif depuis 2007

Second Life, ou le fantasme de l’univers virtuel indépendant, est toujours actif depuis 2007

Soyons honnêtes, les univers virtuels imaginés dans la science-fiction (Neuromancer, Snow Crash ou Ready Player One) ont peu de chance d’aboutir réellement. Les expériences réelles similaires, si elles sont restées très ludiques et geeks (Le deuxième monde ou Second Life) n’ont pas abouties principalement du fait de freins matériels : la rupture de manipulation, d’usage et d’interface nécessaire pour se projeter dans ces univers.

Et pourtant, les prototypes pratiques d’application ne manquent pas (affichage des avis des lecteurs en librairie, localisation des hôtels proches…). Mais ils se popularisent difficilement aujourd’hui, faute d’interface naturelle. L’aspect ludique domine, principalement grâce à SnapChat et à ses lens et à Pokemon Go… sans pour autant créer une véritable usage quotidien sorti de celui de la messagerie.

Si la popularité du jeu est indéniable, Pokemon Go! n'a pas pour autant démocratisé la Réalité Augmentée

Si la popularité du jeu est indéniable, Pokemon Go! n’a pas pour autant démocratisé la Réalité Augmentée

Les Google Glass sont, à date, la tentative la plus aboutie de créer une interface pratique de réalité augmentée visuelle. Leur arrêt en 2015 a signé une fin temporaire des développements liés à un web ambiant visuel, laissant la réalité alternative visuelle dans le champ de la science-fiction (The Circle, Black Mirror), de la publicité (Coca Cola) ou du jeu vidéo (Sony)… Quand les prototypes de lunettes proposés par Facebook ou de lentilles connectés imaginés par Google verront le jour et seront adoptées, alors le Web ambiant sera une réalité et on pourra parler de la fin du monde digital. Ce n’est qu’une question de temps.

La fin de la réalité ?

Mais si l’on anticipe un monde sans rupture entre digital et concret – oublions le terme de réel – il va falloir également anticiper les dérives possibles de cette imbrication. Pas tant celles de la connexion permanente, car si cette connexion devient transparente et « augmentée », elle posera moins de question sur l’isolement du concret qu’elle ne le pose actuellement, mais les dérives liées aux contenus mis à disposition dans ce digital ambiant.

Yantra, le premier robot journaliste indien se charge de trouver les sources d'information, de les recouper et de fournir une première analyse aux rédacteurs humains

Yantra, le premier robot journaliste indien se charge de trouver les sources d’information, de les recouper et de fournir une première analyse aux rédacteurs humains

L’avalanche de contenus produits dans les espaces digitaux a déjà été pointée du doigt de nombreuses fois. Au bruit humain – la répétition des informations, les contenus créés uniquement à objectif marketing – s’ajoutent désormais les contenus créés artificiellement, par des programmes informatiques et des intelligences artificielles. Les robots journalistes ne sont pas une nouveauté, ils ont été testés par de nombreux portails Web, dont Yahoo!, au cours des dix dernières années. Ils étaient destinés, avant tout, à faciliter une création de contenu à moindre coût pour les grands sites d’information.

Actuellement, ce seraient plutôt les programmes de manipulations d’images et de vidéos qui feraient les choux gras des experts.

Les intelligences artificielles de Microsoft ou de Google sont capables de mixer des photos pour recréer des ambiances (adapter un coucher de soleil sur une vue de la campagne par exemple…) ou de créer de toute pièce une photo à partir d’une description textuelle. Plus effrayant, les dernières manipulations d’images permettent de coller un discours sur un visage ou de greffer le visage en particulier sur un film porno – les fameux DeepFakes – le tout en vidéo.

DeepFake, l'algorithme capable de copier n'importe quel visage dans n'importe quelle vidéo... est également utilisé pour manipuler les films pornographiques

DeepFake, l’algorithme capable de copier n’importe quel visage dans n’importe quelle vidéo… est également utilisé pour manipuler les films pornographiques

Ces possibilités de manipulation massive des images vont créer deux travers : tout d’abord la multiplication des « versions » de la réalité – un même contenu pourra exister de plusieurs façons, avec plusieurs ambiances ou plusieurs acteurs – mais surtout un doute permanent dans notre esprit sur les images que nous voyons.

Prenez ces possibilités de création et d’altération massive des contenus – rendues possibles par la croissance exponentiellement de la puissance de calcul – et mêlez-les aux possibilités du Web ambiant – la superposition sonore ou visuelle – et à la puissance des algorithmes que nous évoquions dans l’article précédent – un contenu ciblé par utilisateur. Effrayant ?

Terra Incognita

Oui. Ce qui se dessine en superposant les innovations technologiques les plus récentes ressemble naturellement une dystopie. Les derniers développements de l’omniprésence numérique n’incitent pas à l’optimisme – que l’on parle de la diffusion massive de fausses actualités pendant la campagne présidentielle américaine, ou de l’exploitation des données personnelles des utilisateurs de Facebook par Cambridge Analytica.

Un futur où la déconnexion n’existe plus nous expose de fait à des manipulations permanentes, voire à un travestissement du monde concret.

Pour autant, les initiatives pour créer de la richesse, à défaut d’honnêteté, à l’aide d’outils digitaux existent. Qu’ils s’agissent d’interfaces à la Tinder créées pour favoriser l’exposition au hasard – l’interface, pas forcément l’algorithme qui est derrière – que ce soit des initiatives éditoriales comme Artips ou des mécaniques audios proches de la radio – les Podcasts – ou encore l’économie des Box qui surfent sur l’inconnu que peut contenir un coffret chaque mois. Ces mécaniques favorisant la découverte de nouveaux produits, de nouvelles informations ou de nouvelles cultures sont nombreuses.

Il nous reste à imaginer une exploitation concrète de ces mécaniques, toutes plus ou moins issues de la philosophie de l’hypertexte, dans le monde hybride qui s’annonce. Une mécanique permettant non seulement d’enrichir, mais surtout d’agrandir le monde concret en y ajoutant des occasions d’être curieux. Loin de l’image d’un Ready Player One qui met en scène un monde virtuel fermé, et qui enferme ses visiteurs, on construirait au contrairement un univers où les interactions entre concret et virtuel servent à l’enrichissement « culturel ».

Une sorte de dystopie positive.

Le meilleur des deux mondes.

A retenir.

Intelligences artificielles, GAFA, interfaces vocales…
à mesure que le Net s’automatise
nous laisse-t-il encore réellement le choix ?

10mn de lectureLa question du « Choix » va être cruciale dans le développement des interfaces digitales dans les années à venir. La plateformisation des outils, le développement grandissant de l’intelligence artificielle et l’émergence des interfaces vocales posent très clairement la question de la marge de choix laissée aux internautes, voire aux consommateurs dans le futur Web ambiant.

Algorithmes et intelligences robotiques

On se souviendra qu’il y a moins d’un an, en pleine campagne électorale américaine, le rôle des algorithmes dans la diffusion de l’information avait été largement évoqué. Le monde des médias découvrait avec un mélange d’effroi et de fascination les fameuses « bulles cognitives« .
En surfant sur les réseaux sociaux, nous ne serions exposés qu’à des contenus qui confortent nos opinions et réduisent rapidement notre sphère de connaissance et de curiosité. Facebook, qui avait tenté un temps d’automatiser sa politique de gestion éditoriale avait du faire marche arrière devant deux écueils : la capacité de son algorithme à favoriser des contenus outranciers [1], excessifs – on ne parlait pas encore de fake news – et les accusations de réduction de l’exposition de certains contenus [2].

La faute aux algorithmes bien entendu, mais surtout au fait que ceux-ci ne soient conçus et pilotés sur une base d’objectifs chiffrés. Si je cherche à provoquer un maximum de clics sur mon contenu, j’ai tout intérêt à cibler les audiences les plus affinitaires avec celui-ci, donc les audiences partageant les mêmes centres d’intérêts – Facebook est extrêmement fort à ce jeu – voire qui participent à la construction et à la propagation de mes opinions. Travers humain compréhensible, il est plus facile de parler à une cible séduite que de tenter le prosélytisme. Tout marketeur vous le dira.

Ce travers de conception des principales interfaces du Net – les pages de résultats de recherche de Google, le fil d’actualité de Facebook… – n’en serait pas un s’il était la simple résultante d’une volonté humaine. Malheureusement, ce n’est pas aussi simple. Si les bulles cognitives existent à ce point, c’est principalement qu’elles sont générées par des programmes informatiques dont l’objectif est de maximiser nos réactions… Donc de nous plaire et de nous exposer à des contenus qui confortent nos opinions…

Algorithmes aujourd’hui, Intelligences artificielles demain. La puissance des futurs robots et leur capacité à traiter nos informations personnelles – non plus seulement un historique de cliks, mais des données comportementales complexes comme la mesure de nos réactions physiques ou nos interactions avec l’environnement domestique – va augmenter sensiblement la pertinence de ces bulles. Le but de l’intelligence artificielle va être au final de faire mouche à chaque fois, et de non plus seulement proposer un contenu – produit, service, utilisez le mot qui vous semble juste – qui nous plaise, mais également qui corresponde exactement à nos contraintes – physiques, temporelles, domestiques – du moment.

L’intelligence artificielle, c’est la « satisfaction garantie » poussée à son paroxysme…

Les contenus idéaux pour qui ?

Tout va donc pour le mieux puisque le futur me propose la satisfaction assurée de mes désirs. Ce serait aussi simple que ça si ne se posait pas la question de l’émetteur.
Qui, concrètement, est à même de nous proposer ce contenu idéal ? À date, ce sont les GAFA.

  • Google peut nous proposer des sites et des « adresses » où trouver à coup sûr le service que nous recherchons. Le rôle clé de son moteur de recherche – et de ses extensions mobiles et vocales – n’est que cela : nous orienter vers le bon prestataire.
  • Amazon lui entend nous orienter rapidement vers le produit idéal en exploitant notre historique d’achat. Amazon Dash [3] par exemple se veut une simplification extrême du choix et jouant sur la fidélité à une marque…
  • Facebook, on l’a vu, joue la même partition pour les contenus. Le réseau social entend nous pousser le média le plus en adéquation avec notre habitude de consultation des contenus.

À ces trois géants, qui semblent aujourd’hui indétrônables, s’ajouteront sans doute un ou deux autres acteurs dans les années à venir. Notamment celui qui, entre Uber, Tesla et Apple, maîtrisera une voiture autonome transformée en simple canal de diffusion de contenus [4].

Sans entrer dans la paranoïa anticapitaliste, il est bon de garder en tête le rôle de ces GAFA dans l’économie mondiale, et surtout leurs objectifs propres de rentabilité. Si Google doit garder en tête sa « ligne » de pertinence pour être utilisée – c’est à dire toujours proposer un contenu en cohérence avec la requête de l’internaute – il doit le faire dans un dispositif qui favorise la création de revenus publicitaires propres. La mainmise d’Adwords sur la publicité digitale à objectif commercial, la mainmise de Facebook sur la publicité à visée éditoriale [5], montrent bien les torsions possibles du système. Me propose-t-on les contenus les plus pertinents parmi lesquels certains sont publicitaires, ou les contenus les plus pertinents parmi des choix publicitaires ? La limite est ténue…

L’interface, clé de l’interaction.

Intelligences artificielles et GAFA semblent donc dessiner notre environnement direct de demain… Mais si le paysage n’était pas assez complexe à anticiper, un changement drastique d’usage guette le digital : l’omniprésence des assistants. Les assistants, quelle que soit leur forme, changent complètement la notion d’interaction dans l’univers digital, basculant d’un monde de requêtes – une demande / plusieurs reponses – à un monde de conversation – une demande / une réponse.

Premier avatar de ce tsunami conversationnel : les chatbots. Héritiers directs du smartphone et des interfaces de SMS, le chatbots réduit par défaut toute interface à un écran de mobile, et toute interaction à un échange de message textuel. Si des démonstrations d’intégration laissent envisager des possibilités d’interfaces autrement plus riches, à l’image de l’essayage et de l’achat de lunettes de soleil chez Ray Ban [6], il reste pertinent de penser que le chatbots tend vers la simplicité : échange de quelques mots, boutons de sélection mais guère plus d’options ouvertes. Si les arbres de décision peuvent s’avérer complexes, les espaces de liberté laissés au mobinaute sont réduits.

Le second avatar de la révolution de la conversation, l’assistant vocal, n’est pas mieux logé. L’interface vocale est prometteuse en termes d’interactivité, elle permet au consommateur de formuler à peu près n’importe quelle question [7]. Les taux de reconnaissance vocale et linguistique des Intelligences artificielles laissent en effet présager d’une compréhension fine d’à peu près n’importe quelle formulation [8]. Mais l’interface vocale pêche aujourd’hui par la pauvreté de ses réponses. Un canal vocal peut en effet être un vecteur d’information, mais difficilement devenir un canal de navigation. Les personnes s’étant déjà heurtées au serveur téléphonique de n’importe quelle administration – ou il y a vingt ans aux horaires vocaux des cinémas – pourront en témoigner.

D’ailleurs, ce n’est pas un hasard si, après avoir testé et formalisé les codes de l’interaction vocale, Amazon travaille désormais à son complément visuel : d’abord via smartphone interposé (Echo Look [9]), puis via un assistant domestique mixant les usages de la borne vocale et de la tablette (Echo Show [10])

La réduction du champ des possibles ?

Résumons ?

  1. Une intelligence artificielle qui pense à notre place.
  2. Des GAFA qui régissent les flux, et donc décident de l’information à laquelle nous sommes exposée.
  3. Des interfaces, conversationnelles et vocales, qui limitent les possibilités de sélection et de choix.

Tout est pensé dans l’univers ergonomique qui se dessine pour limiter la charge cognitive du choix… Pour limiter notre exposition à un champ de possibles soit par le filtrage, soit par la non exposition aux options possibles.
Tout est fait pour que, ergonomiquement, le choix n’existe plus, ou en tout cas ne soit plus un écueil de navigation.

Prototype de réfrigérateur connecté par Samsung et Google

Prototype de réfrigérateur connecté par Samsung et Google

Le philosophe Eric Sadin se posait la question d’une révolution numérique qui au final nie l’impact que l’humain peut avoir sur elle. Dans son interprétation de la « Silicolonisation du monde » [11], il part des trois principes de la révolution numérique que nous sommes en train de vivre – tout d’abord l’ère de l’accessibilité aux données, plus l’ère de la captation des données et enfin, bientôt, l’ère de l’intelligence artificielle – pour démontrer à quel point robots et algorithmes pourront se passer de nous.
Pour exemple ? Le frigo connecté qui a la capacité de connaître en temps réel son propre contenu, et donc de commander « seul » le pack de yaourt qui viendrait à manquer. L’exemple est caricatural ? Pas tant que ça si l’on pense aux nombres de systèmes automatisées qui sont en train d’être conçus par la Silicon Valley, de l’affichage publicitaire à la voiture autonome en passant par les thermostats ou les balances connectées.

Sans aller jusqu’à cette perte totale de contrôle de l’être humain sur sa vie, il faut bien reconnaître que dans la sphère digitale, les moyens d’interaction de l’être humain sur sa propre vie vont dans le sens d’une grande simplification, ou a minima d’un conseil extrêmement guidé… Le bouton Amazon Dash en étant le modèle plus poussé actuellement : en permettant l’achat d’un produit identifié d’un seul « clic », on ne se pose plus la question du produit lui-même et du jeu de la concurrence. Hors l’activation du bouton, le périmètre de l’intervention humaine est bien faible.

Sans revenir sur les fondements de la psychologie humaine, on gardera en tête que le choix reste en grande partie ce qui donne de la valeur à un acte ou à un produit. Comment valoriser une expérience si le choix de la suivre ou non n’existe plus ? Comment gérer une relation client, dans un cadre purement commercial – voire dans un cadre juridique de service après-vente – si le consommateur n’a pas eu la sensation d’opérer un choix réel lorsqu’il a commandé un produit ou fait appel à un service ? L’équilibre entre « Proposition », « Suggestion » et « Obligation » est précaire. Et toutes les conditions générales de vente du monde ne changeront rien à la perception de ne pas avoir de prise réelle sur un système informatique ou commercial.

Du rôle de l’expérience utilisateur

On a eu tendance à définir, dans le monde digital de ces vingt dernières années, les métiers de l’User eXperience comme étant ceux de la simplification. L’expérience utilisateur devait apporter clarté et pédagogie aux interfaces pour que chaque internaute puisse rapidement trouver une information, ne s’égare pas sur un site et accède rapidement aux produits dont il avait réellement besoin. On a bien souvent détourné ces métiers de base, au service de l’internaute, pour en faire des chausse-trappes commerciaux et « tenter » l’internaute, l’inciter à commander et dépenser plus [12].

À l’aube de la révolution de l’intelligence artificielle et des interfaces dialogantes, le rôle des UX va peut-être encore changer. Dans les années qui viennent, les designers digitaux et les spécialistes de l’interactivité vont peut-être avoir pour mission de valoriser l’interaction humaine pour ne pas donner aux humains l’impression d’être soumis au contrôle des machines. Rétablir l’équilibre en quelques sortes.

Pour s’Inspirer

– Un album : Freedom of Choice (Devo – 1980)
– Un film : Matrix (Lana & Lilly Wachowski – 1999)
– Un Livre ? La silicolonisation du monde (Eric Sadin – 2016)

Sources à Lire
Sur Le Même Sujet