Articles

Il semblerait donc qu’en cette fin d’année, les Intelligences Artificielles aient décidé de totalement chambouler le monde de la création. On les savait déjà capables de détecter des cancers précoces ou de piloter des voitures. On les sait, depuis cette année, capables de s’inspirer des plus grands artistes pour créer des – ouvrez les guillemets – œuvres d’art et plus récemment encore de tenir une conversation d’un niveau presqu’humain avec un autre humain.

Les Intelligences artificielles seraient-elles réellement devenues aussi intelligentes que leurs créateurs. Retour sur un mythe qui a la peau dure.

Papa, c’est quoi une IA ?

Mais d’abord, c’est quoi exactement une intelligence artificielle ?

Une Intelligence Artificielle, qu’elle assiste un médecin ou fasse des gribouillis, n’est avant tout qu’un programme informatique. Une suite d’instructions logiques, codées avec plus ou moins de complexité, qui édicte les réactions d’un ordinateurs ou d’un robot. Un petit retour dans le Dictionnaire Larousse de l’Informatique de 1981, pour la forme, confirme les limites du concept :

« Parler d’intelligence artificielle constitue, en fait, un abus de langage, puisque l’automate est basé sur un modèle (un ou plusieurs algorithmes) qui réagit uniquement suivant les stratégies préétablies. »

Depuis 1981, la technologie et les capacités des machines ont certes évoluées. Et les derniers développements en informatiques permettent d’envisager des programmes évolutifs, c’est-à-dire capable d’apprendre rapidement à partir d’un lot de données et de faire évoluer leur comportement au fur et à mesure de leurs interactions avec les utilisateurs. D’où, d’ailleurs, les multiples prototypes de programmes ouverts au grand public sur le Net. L’engouement qu’ils provoquent permet de « nourrir les algorithmes » et d’assurer rapidement un volume de données de test à ces derniers pour en améliorer les performances.

Mais pour évoluée qu’elle soit, l’intelligence artificielle ne reste aujourd’hui qu’un programme informatique presque comme un autre. Simplement, les unes de la presse provoquent bien souvent plus de clic sur un « Une intelligence artificielle apprend seule l’espagnol » que sur un « Un programme informatique bat le meilleur joueur de bridge de la planète. » Toute question de respect pour les joueurs de bridge mise à part.

L’intelligence, réelle, comparable à celle des humains, n’est pour l’instant qu’une affaire de science-fiction. Et le HAL 9000 de l’Odyssée de l’Espace n’a pas encore vu le jour.

Détecter l’intelligence.

Mais, en admettant qu’une intelligence artificielle émerge, dans les prochains mois ou prochaines années, des milliards de lignes de code produites chaque jour, une question demeure : serions-nous à même de la détecter ? De la reconnaître ?

La question est importante et a occupé l’esprit de plusieurs scientifiques et auteurs de science-fiction. On en retiendra trois dont les réflexions gravitent autour de cette question.

Tout d’abord, Carl Sagan, scientifique et astronome américain à l’origine entre autres du programme de détection des intelligences extraterrestres SETI. Carl Sagan s’est longtemps posé la question de la possible détection d’une intelligence non-terrienne, existant quelque part dans l’univers. C’est une affaire de probabilité – pouvons-nous réellement être seuls dans cette immensité – mais également de capacité à reconnaître l’intelligence. Comment, dans la foule des ondes et des sons émis par les corps célestes pourrions nous reconnaître un schéma, un bruit, une forme qui, nous en serions certains, serait produite artificiellement ? La question est bonne et Carl Sagan n’y apporte pas de réponse ferme. Il émet simplement des hypothèses. Mais force est de constater que la recherche d’une intelligence extraterrestre et l’espoir en une intelligence artificielle ont de nombreux points communs.

En fait, c’est Alan Turing, dans les années 1950, qui se sera penché le premier sur l’intelligence des machines, se posant une question centrale : les machines ont-elles la capacité de réfléchir. Il n’apporte, lui non plus, pas de réponse directe, mais imagine un test pour détecter cette intelligence. Isolez une machine dans une pièce et assurez-vous que celle-ci ne puisse communiquer qu’à l’aide d’un terminal informatique. Placez un humain à l’autre bout de ce terminal et demander lui d’entamer un dialogue. Si au bout de ce dialogue, il ne peut savoir si son interlocuteur est numérique ou humain, alors la machine aura réussi le test de Turing et pourra être déclarée intelligente. L’intelligence de la machine devient dépendante de la perception humaine. Alan Turing défend son test lui-même dans ses écrits, précisant que l’intelligence est finalement un mécanisme interne et que nulle ne peut en juger de l’extérieur.

La réflexion sera, grosso-modo, la même chez l’auteur de science-fiction Philip K. Dick dans les années 1960. Dans la nouvelle qui deviendra Blade Runner, il imagine le test de Voight-Kampff : une épreuve basée sur la compréhension des situations stressantes, humiliantes et sur l’analyse des émotions, ou plutôt de leur manifestation. Un androïde, réfugié sur Terre, ne réagira pas comme un humain à certaines hypothèses et pourra donc être identifié par le Blade Runner, le détective chargé de le traquer. Là encore, comme chez Turing, l’appréciation de l’humanité est laissée à la discrétion d’un humain. Et Philip K. Dick évoque explicitement les possibilités d’erreur dans son roman : oui Deckard, le héros, a déjà « retiré » un humain par erreur.

Un air de magie.

La question n’est donc pas tant de savoir si une machine est devenue intelligente, que de savoir comme nous percevons cette supposée intelligence. Si nous avons envie d’y croire. Tout comme pour un tour de magie.

La magie, on le sait, est l’art de détourner l’attention et de montrer ce à quoi le public est prêt à croire. Le prestidigitateur qui s’emparera de votre montre vous aura d’abord incité à regarder ailleurs. Les cartes n’apparaissent pas subitement. Elles sont toujours quelque part, mais vous n’y prêtez pas réellement attention.

Pour l’intelligence artificielle, c’est la même chose. On l’a dit : une IA n’est qu’une suite d’instructions plus ou moins très complexe qui exploite une base de connaissances existantes pour fournir un nouveau résultat. Une intelligence artificielle ne réfléchit pas, elle assemble, compile des données. Ainsi, les programmes qui veulent aujourd’hui remplacer les artistes utilisent avant tout des banques d’images par milliers et en croise les métadonnées et les références. Les programmes qui dialoguent avec vous ont été nourris avec des centaines d’articles et d’histoires avant de vous être présentés.

Il n’y a pas de magie derrière tout cela, pas plus que d’intelligence. Mais si on n’y regarde que rapidement, ou si l’on ne se penche pas sur les arcannes de ces nouveaux compagnons, on serait tenté de se bercer d’illusions et de voir dans ces programmes des êtres doués de raison.

Et pourquoi pas ?

La seule question finalement, c’est : Avez-vous réellement envie d’y croire ?

I'm sorry Dave...

Parmi les quelques lois édictées par Arthur C. Clarke – l’auteur entre autres de 2001 l’Odyssée de l’Espace – il en est une qui est particulièrement d’actualité. Elle dit que « Toute technologie suffisamment avancée est indiscernable de la magie. »

En ces temps où l’innovation technologique prend une allure vertigineuse, on pourrait se demander si elle n’a pas déjà commencé à s’appliquer…

Une technologie ambiante

En quelques dizaines d’années, la technologie est doucement devenue invisible. Les ordinateurs imposants qui occupaient nos bureaux se sont mués en tablettes et en smartphones. Les tubes de télévision ont cédé la place aux écrans plats que certains n’hésitent pas à utiliser comme des tableaux. Les fils qui nous reliaient au réseau téléphonique ont disparu au profit des ondes Wifi et 4G. La technologie a envahi notre quotidien. Elle a en revanche quitté notre champ de vision.
Les écrans eux-mêmes seraient en train de disparaître, cédant le terrain aux enceintes connectées et aux commandes vocales. Nous sommes plus que jamais entourés de technologie, mais soyons honnêtes… nous ne la voyons plus.

L’expression ultime de cette disparition, c’est Amazon Go. L’expérience client de la supérette sans caisse d’Amazon n’a en réalité plus rien de technologique. On entre, on se sert dans les étagères, on remplit un panier et on repart. Toute l’artillerie électronique du magasin – capteurs, caméras et bien entendu ordinateurs – est reléguée en coulisse loin des yeux de la clientèle.

Du point de vue du client, cette expérience de shopping n’est pas plus « digitale » que l’achat d’un citron, le vendredi soir, chez l’épicier du coin. Toute la technologie déployée par Amazon est effectivement devenue transparente.

Et à bien y regarder, il y a bien un petit côté magique dans ce magasin sans interaction. Se servir, repartir et voir son compte en banque débité automatiquement du bon montant, c’est la forme la plus positive de magie que nous promet la technologie aujourd’hui !

Puissance et Data

Cette magie de l’expérience Amazon Go, on la doit à une foule d’innovations technologiques qu’on regroupe aujourd’hui un peu facilement sous le terme « Intelligence Artificielle ». Amazon Go, ce sont des capteurs de poids capables de détecter quand un produit quitte une étagère. Des caméras capables de suivre en permanence un acheteur et d’identifier ses gestes. Et des ordinateurs capables de faire le lien entre toutes ces sources d’information et d’en déduire qui a acheté quoi.

Pour faire court, c’est l’explosion des capacités de transfert et de traitement de l’information qui rend possible Amazon Go. Alors qu’il y a quelques années, on peinait encore à analyser des statistiques complexes, l’augmentation de la capacité de calcul des ordinateurs, mais aussi le déploiement des réseaux à hautes vitesse (fibre, et bientôt 5G), permettent de traiter, en temps réel, des images ou des vidéos. Des données éminemment complexes, mais que les ordinateurs ont appris à traiter.

Aujourd’hui, l’interprétation des images est monnaie courante, et ouvre le champ à de nombreuses applications. Pour ne parler que des plus impressionnantes, on pensera aux expérimentations en matière de reconnaissance faciale qui ont lieu à Shenzhen en Chine : détection de la triche aux examens, identification d’un criminel dans la foule d’un stade… et attribution d’un score « social » aux habitants en fonction de leur comportement.

Là encore, une technologie transparente qui a pourtant un impact bien réel.

La fin de l’empathie

C’est en fait la véritable question de l’accélération technologique que nous subissons actuellement : son impact sur nos vies « réelles », « concrètes ». Quels critères font qu’un habitant chinois peut se voir refuser l’embarquement sur un vol international ? Et surtout, comme cet habitant peut-il agir sur ces critères ?

En faisant dépendre des décisions administratives à des milliers de données collectées, ne crée-t-on pas de l’obscurité dans la vie réelle ?

C’est un syndrome déjà observé aux Etats-Unis quant aux décisions de l’administration locale sur l’attribution des aides sociales. De plus en plus de dossiers sont traités « informatiquement », sur des critères purement objectifs. En développant ces systèmes entièrement automatiques, et forcément « objectifs », les administrations créent en fait de l’incompréhension.

Pour la plupart des fonctionnaires utilisant ces systèmes, ils sont devenus le moyen de se dédouaner d’une décision : « Nos systèmes ne me permettent pas de vous accorder ce prêt ». Pour les bénéficiaires, ces programmes sont surtout perçus comme la fin de l’empathie et de l’écoute. On peut comprendre un refus présenté avec humanité et compassion par un interlocuteur humain, on se retrouve démuni quand la décision émane d’une intelligence artificielle qui ne permet par de réplique ou d’opposer des arguments.

Lost in digitalisation

Plus que la « magie » d’ Arthur C. Clarke, on peut craindre en fait une sorte d’illettrisme moderne, une impossibilité pour l’esprit humain de comprendre les tenants d’une décision. Car forcément, la capacité des ordinateurs à stocker et traiter l’information est forcément sans commune mesure avec l’intelligence humaine.

Face à une décision algorithmique ayant un impact sur notre quotidien, nous ne savons comment réagir. Simplement parce que nous ne comprenons et ne pouvons discuter cette décision. Là ou un conseiller peut toujours argumenter, même maladroitement, une IA reste froide et ne s’explique pas.

Tout le problème est en fait là. Les critères qui permettent les arbitrages d’une IA sont – et seront forcément – trop nombreux pour être compréhensibles par les personnes impactées. L’habitant de Shenzhen qui se voit refuser son visa international peut-il comprendre les raisons de ce refus ? Et surtout, a-t-il en amont un moyen de connaître l’impact de ses propres actes avant même de demander son visa ?

L’illettrisme digital, c’est avant tout cela : l’incompréhension de l’impact qu’à la technologie sur notre vie quotidienne, et la sensation de perdre le contrôle sur nos vies. Une sorte de malédiction.
Alors que les progrès de l’intelligence artificielle ont réveillé de grandes peurs de destruction de l’humanité – le syndrome Skynet – on s’inquiète relativement peu de la mainmise des algorithmes sur notre quotidien. La perte de compréhension du monde qui nous entoure, des interactions et décisions, et surtout de la portée de nos actes, se révèlent des dangers autrement plus grands pour notre vie en société.

Si Arthur C. Clarke avait prédit l’émergence de la magie, il n’imaginait peut-être pas que celle-ci serait… noire.

Cet article fait partie du numéro #5 du magazine Twelve édité par Serviceplan.