top of page
Photo du rédacteurThierry Bardy

Les partisans d'une pause dans l'IA ne désarment pas

Florian Dèbes Un sommet se tiendra à Londres sur les questions de sécurité liées à ces technologies. On n'arrête pas le progrès. Six mois après la tonitruante lettre d'un millier de chercheurs en intelligence artificielle appelant les entreprises à cesser pour six mois leurs travaux sur des modèles informatiques toujours plus puissants, force est de constater qu'aucune société du secteur n'a visiblement levé le pied. Même si ces technologies s'avèrent capables du meilleur comme du pire.  A l'origine de ChatGPT - le logiciel conversationnel à l'origine du buzz de l'IA générative il y a moins d'un an -, OpenAI n'a certes jamais indiqué avoir démarré les travaux sur un nouveau modèle de langage que la rumeur baptise « GPT-5 ». Mais GPT-4 est régulièrement enrichi de nouvelles fonctionnalités via des mises à jour. De son côté, Google travaille d'arrache-pied sur son modèle Gemini, censé dépasser GPT-4. Selon le « Wall Street Journal », Meta se prépare à entraîner un nouveau modèle aussi puissant que celui d'OpenAI. En Chine, Baidu assure aussi faire mieux que GPT-4 sur certaines tâches, avec son dernier modèle Ernie 3.5. « Définir ce qu'est un système d'IA sûr » Mais tous les champions du secteur, et la myriade de start-up qui gravitent autour d'eux, s'attachent désormais à présenter des technologies qu'ils jugent sûres et fiables. « Nous avons créé un débat public, nous sommes très fiers de ça », se félicite Mark Brakel, le directeur des affaires publiques du Future of Life Institute, le think tank à l'origine de la lettre, notamment signée par Elon Musk et l'un des pères de l'IA, Yoshua Bengio. La suite se jouera en Angleterre, où se tiendra les 1er et 2 novembre le premier sommet international entièrement consacré à la sécurité et l'IA, organisé par le gouvernement de Rishi Sunak. « Pour la première fois, l'occasion se présente de définir pour le monde ce qu'est un système d'intelligence artificielle sûr. S'il est requis que ses développeurs doivent, contrairement à maintenant, comprendre comment il en arrive à ses conclusions, cela nécessiterait un tel effort de recherche que cela reviendrait à instituer une pause », plaide le lobbyiste. « Risque d'extinction » de l'humanité Au-delà, il espère que la rencontre permettra une reconnaissance internationale des risques. Présentées comme des outils de productivité pour traduire ou résumer un texte, les IA génératives portent en elles un « risque d'extinction » de l'humanité pour le Future of Life Institute. Sans même parler de la disparition de nombreux emplois devenus caducs selon les employeurs - symbolisée en France par un plan social touchant 217 personnes dans la société de veille médiatique Onclusive -, Mark Brakel s'alarme des IA capables dès aujourd'hui d'imaginer en quelques heures 40.000 armes chimiques. Ou de disséminer de multiples variantes d'une fausse information en période électorale. Le sommet britannique sera par ailleurs l'occasion de jauger les forces en présence. Les Etats devront faire la démonstration qu'ils accordent assez d'importance au sujet pour travailler tous ensemble. A date, la participation de la Chine n'est pas assurée. Par ailleurs, l'influence des champions de la tech sur chaque décision sera observée de près.

1 vue0 commentaire

Posts récents

Voir tout

Commenti


bottom of page