top of page
Photo du rédacteurThierry Bardy

Quand l'IA nous manipulera - Vivre en 2049


Plutôt qu'une intelligence artificielle généralisée qui voudrait contrôler l'humanité, les experts craignent, pour l'avenir, des algorithmes détournés pour nous influencer.

Dès la nouvelle présidente de la République élue, les services d'espionnage de la Grande Nation - officiellement alliée de la France - réussirent à installer un algorithme d'intelligence artificielle sur son smartphone. Ce logiciel s'était d'abord contenté d'observer, notant les informations les plus recherchées par la cheffe de l'Etat, les sites qu'elle fréquentait, les ministres, conseillers, femmes et hommes politiques, dirigeants d'entreprise, journalistes, amies qu'elle appelait le plus souvent et donc à qui elle accordait sa confiance…Les téléphones de toutes ces personnalités avaient à leur tour été infectés. Puis, ces intelligences artificielles s'étaient coordonnées pour très habilement modifier l'idée que la présidente et son entourage se faisaient d'un contrat que la France négociait pour la construction d'un gigantesque complexe nucléaire en Amérique du Sud.

A force d'être exposés à des fake news etdes deepfakes incrustés sur de vrais sites d'information piratés, les plus hauts responsables français avaient fini par croire que les dix réacteurs allaient servir à l'enrichissement de l'uranium à des fins militaires. L'Hexagone s'était retiré de l'appel d'offres. Le pays allié, à l'origine de cette opération de manipulation, avait raflé le marché. Un tel scénario, où une IA ultra sophistiquée est utilisée pour tromper un concurrent ou un ennemi, est très sérieusement envisagé par les spécialistes. Beaucoup plus que la menace d'une IA générale, phantasme populaire qui voit l'IA devenir plus intelligente que les êtres humains et prendre le contrôle de la Terre. « Une IA générale capable de tout faire n'existera jamais. Le mettre en avant est même un leurre pour détourner notre attention des vrais risques, comme celui d'une IA conçue pour tromper un adversaire : cela peut être réalisé, il n'y a pas de blocage technique, comme on peut déjà le voir dans les fake news ou les attaques cyber », estime Antoine Couret, cofondateur et président de Hub France IA, une association fédérant, à travers une centaine de membres (start-up, grands groupes, chercheurs…), une partie de l'écosystème de l'IA français.

Effectivement, dans cette saynète montrant des responsables français dupés, tout est possible d'un point de vue technique.Le scandale Pegasus a montré qu'une puissance étrangère pouvait assez facilement pénétrer le smartphone d'un dignitaire. Des logiciels d'intelligence nous manipulent déjà sur les réseaux sociaux, en nous montrant des contenus qui nous intéressent. Et depuis un article du « New York Times » du 24 novembre 2015, on sait que les autorités américaines craignent des opérations de « spear phishing », ces hameçonnages se focalisant sur un nombre limité d'utilisateurs, à qui sont envoyés des messages personnalisés.

Une seule chose cloche dans notre scénario : « Puis, ces intelligences artificielles s'étaient coordonnées… » Ce qui supposerait que plusieurs IA soient capables de projeter une action commune. « C'est ce que l'on appelle la planification épistémique où différents acteurs prennent en compte les contraintes et les connaissances des uns et des autres pour se coordonner, explique Andreas Herzig, directeur de recherche CNRS à l'Irit (Institut de recherche en informatique de Toulouse), et coauteur d'un article sur la génération automatique de plans d'action, à paraître en septembre dans la revue « Artificial Intelligence ». Les humains y arrivent très bien. Quant aux machines, pour l'instant, on ne s'était pas beaucoup préoccupé de cet aspect de l'intelligence qu'elles devraient acquérir pour rivaliser avec nous : l'intelligence sociale. » Désir d'anthropomorphisme, développements techniques, considérations éthiques et philosophiques… Qu'il prenne la forme de cette IA généralisée, qui fascine le grand public, ou d'une IA spécialisée mais potentiellement manipulatrice, l'avenir de l'intelligence artificielle soulève de nombreuses questions et repose sur de nombreuses variables, dont certaines sans doute inconnues à ce jour.

Rivaliser avec l'intelligence humaine

L'anthropomorphisme est-il une fausse route depuis le début ? « Pourquoi vouloir toujours comparer l'IA à l'humain ? s'interroge Laurence Devillers, chercheuse en intelligence artificielle au CNRS, professeur à Sorbonne Université et auteure des 'Robots émotionnels' (Editions de l'Observatoire, 2020). Une machine n'a pas de corps, elle ne peut donc pas apprendre et mémoriser comme nous, qui expérimentons, ressentons… Il ne faudrait même pas parler d'intelligence artificielle, mais d'une imitation de ce que nous sommes, à l'aide des traces que nous laissons. »

Cet anthropomorphisme remonte, entre autres, au test de Turing. En 1950, le mathématicien britannique Alan Turing publie un article sur l'intelligence artificielle, « Computing Machinery and Intelligence », dans lequel il tente de répondre à cette question : « Les machines peuvent-elles penser ? » Mais, plutôt que de définir le mot intelligence, il préfère comparer la machine à l'homme et invente son célèbre test où un être humain doit deviner s'il dialogue avec une autre personne ou avec une machine. Si cette dernière parvient à mystifier son interlocuteur, elle remporte l'épreuve. Tromper l'humain serait ainsi devenu le but de l'intelligence artificielle. Le film d'anticipation « Blade Runner », réalisé par Ridley Scott et sorti en 1982, qui débute par un test de Turing tournant très mal, poussera ce mythe à son paroxysme, mettant en scène des « réplicants », ces androïdes créés à notre image…

Soixante et onze ans après l'invention du test de Turing, rivaliser avec l'intelligence humaine demeure, cependant, le Graal des chercheurs en IA. « Les progrès de l'IA ont été très lents entre les années 1990 et 2010, mais depuis il y a eu une telle accélération que même moi j'ai du mal à suivre, explique aux 'Echos' Yann LeCun, chef scientifique de l'IA chez Facebook et professeur à l'université́ de New York. Malgré de nouvelles techniques comme l'autoapprentissage et les architectures de deep learning, les capacités d'apprentissage des machines sont encore bien en deçà de ce que l'on peut observer chez les animaux ou les humains pour comprendre le monde, anticiper, planifier et agir. Mais, tôt ou tard, que ce soit dans dix, vingt ou cent ans, nous aurons des systèmes intelligents du niveau d'un être humain. Ce n'est pas une question de puissance de calcul ou de volumes de données, mais de nouvelles méthodes conceptuelles et mathématiques pour permettre aux machines de comprendre comment fonctionne le monde en l'observant. Reste à savoir si ces systèmes seront autonomes… »

Techniquement, il existe deux grandes branches de l'IA. D'un côté, l'IA symbolique qui tente de concevoir des modèles logiques de la réalité. De l'autre, une approche statistique : le deep learning, dont Yann LeCun est l'un des pères. Dans cette approche, on fournit des données à la machine, elle y observe des corrélations et en déduit des prédictions, du type « il y a 90 % de chances que cette photo soit celle d'un chat » ; mais l'utilisateur ne comprend pas toujours le modèle que cette IA s'est construit.

« L'IA symbolique a eu son heure de gloire dans les années 1980 avec les systèmes experts capables de reproduire les mécanismes cognitifs d'un spécialiste, rappelle Sébastien Konieczny, partisan de cette approche et directeur de recherche au CRIL, un laboratoire d'intelligence artificielle de l'université d'Artois, à Lens. L'approche statistique, qui a le vent en poupe depuis plus de dix ans, commence également à atteindre ses limites : elle ne va pas permettre de mettre au point des machines intelligentes capables de tout résoudre et pose de toute façon des problèmes de garantie de bon fonctionnement, puisqu'elle n'est pas toujours transparente. »

Comme de nombreux défenseurs de l'IA symbolique, Sébastien Konieczny reconnaît que celle-ci, si elle veut progresser, doit s'allier au deep learning. Il souhaite que les deux théories fusionnent : « C'est ce que l'on appelle l'IA hybride ou neurosymbolique. » Le projet européen Tailor (Foundations of Trustworthy AI - Integrating Reasoning, Learning and Optimization) vise ainsi à regrouper des experts en apprentissage, optimisation et raisonnement.

Une forme de libre arbitre

Mais beaucoup de tenants de l'apprentissage pensent que les développements en cours permettront bientôt des changements de paradigme et aideront leur discipline à rester autonome. Marco Zaffalon est directeur scientifique de l'Idsia USI-Supsi(Institut Dalle Molle pour l'Intelligence Artificielle), à Lugano, dans le sud de la Suisse, où a été inventé, en collaboration avec l'université de Munich, le LSTM, un réseau de neurones récurrents très utilisé en apprentissage profond. « L'une des pistes les plus prometteuses est l'inférence causale appliquée à l'intelligence artificielle », estime-t-il. L'inférence causale désigne le processus par lequel on peut établir une relation de causalité entre un élément et ses effets.

« En IA, cela permettrait à une machine de se demander si je fais ceci, que va-t-il se passer ? Mais, aussi, si j'avais fait différemment, que ce serait-il passé ? » poursuit Marco Zaffalon. Dans son livre « The Book of Why » (Penguin Books, 2019, non traduit), Judea Pearl, informaticien et philosophe américain, l'un des pères de l'inférence causale, estime même que donner à une machine la possibilité de se poser ces deux questions lui conférerait une forme de libre arbitre, voire d'imagination. Et la rapprocherait un peu plus d'un humain.

Mais si, finalement, c'était le scénario inverse qui prévalait ? Si l'humain se mettait à penser comme la machine, c'est-à-dire sans réfléchir ? Dans son livre « Deep Thinking. Where Machine Intelligence Ends and Human Creativity Begins » (John Murray, 2017, non traduit), le champion d'échecs Garry Kasparov, battu en 1997 par l'ordinateur Deep Blue, craint que l'humanité ne relâche ses efforts en s'appuyant de plus en plus sur les machines. Alexei Grinbaum, physicien et philosophe, chercheur au CEA Saclay et auteur de l'ouvrage « Les Robots et le Mal » (Desclée de Brouwer, 2019) voit déjà l'impact des machines sur nos comportements : « Un enfant qui apprend une langue étrangère avec un chatbot n'intégrant pas les pronoms genrés est forcément influencé », estime-t-il. Et que dire des fake news qui sont rediffusées par l'IA des réseaux sociaux, juste parce qu'elles ont du succès ? L'algorithme ne cherche pas à vérifier ces informations. Beaucoup d'humains non plus. Mais, après tout, on ne sait pas non plus comment fonctionnent certains logiciels d'apprentissage. Pourquoi se creuser la tête ?

18 vues0 commentaire

Posts récents

Voir tout

Comentários


bottom of page