CHATGPT METTRE L'IA SUR PAUSE

OU JOUER SUR LES PEURS ?

Des centaines de scientifiques et personnalités ont signé, mercredi 29 mars2023, une lettre ouverte appelant à un moratoire de six mois sur le déploiement de nouvelles versions des intelligences artificielles comme ChatGPT. Pour les auteurs de la lettre, ce serait un enjeu “existentiel” pour l’humanité.

Elon Musk, patron de Tesla, Steve Wozniak, cofondateur d’Apple, Andrew Yang, ex-candidat démocrate à la présidentielle américaine, ou encore deux récipiendaires du prix Turing, l’équivalent du prix Nobel dans le domaine de l’intelligence artificielle (IA) : tous font partie des plus de 1 000 personnalités et scientifiques ayant signé une lettre ouverte appelant à une pause urgente dans la création de modèles de langage comme ChatGPT, quelques heures après la mise en ligne de sa dernière version mercredi 29 mars.

Dans ce texte, ils et elles appellent à une pause de 6 mois dans les recherches et les développements de logiciels d’IA les plus évolués. Pour les auteurs de cette lettre ouverte, les IA tels que ChatGPT ne sont pas simplement d’aimables “agents conversationnels” hyperdoués avec qui discuter ou capables d’aider un élève à tricher en classe. “Il faut immédiatement mettre en pause [...] le développement de systèmes plus puissants que GPT-4 [la dernière itération de l’algorithme qui permet à ChatGPT de fonctionner]”, peut-on lire dans ce document.

L’une des particularités du texte est qu’il est signé par Sam Altman, l’homme à la tête d’OpenAI, la société qui a conçu ChatGPT : il se dit être lui-même « un petit peu effrayé » par ChatGPT, en imaginant le logiciel être utilisé pour de « la désinformation à grande échelle ou des cyberattaques ».

ChatGPT ne dit pas la vérité..Et autres dangers de l'IA

“On n’a pas du tout encore réfléchi, par exemple, à des solutions pour compenser toutes les pertes d’emplois que le recours à l’IA va générer”, souligne Grigorios Tsoumakas, expert en intelligence artificielle à l’Université Aristote de Thessalonique. Plus de 300 millions de salariés dans le monde pourraient perdre leur travail à cause de l’automatisation des tâches, a souligné la banque Goldman Sachs dans une nouvelle étude publiée lundi 27 mars.

Ces IA mises aujourd’hui entre les mains de millions d’internautes comme autant de jouets numériques ne sont pas non plus des plus sûres. “On a vu avec quelle facilité des experts ont pu contourner les quelques mesures de sécurité mises en place sur ces systèmes. Que se passerait-il si des organisations terroristes arrivent à s’en emparer pour créer des virus, par exemple ?”, s’interroge Grigorios Tsoumakas.

Les risques liés à la cybersécurité sont symptomatiques d’un problème plus large avec ces systèmes, d’après Joseph Sifakis. “On ne peut pas mettre à disposition du public des outils aussi facilement alors qu’on ne sait pas vraiment comment ces IA vont réagir”, juge cet expert.

Sans compter qu’il faudrait éduquer le commun des utilisateurs. En effet, “il peut y avoir une tendance à croire que les réponses de ces systèmes sont vraies, alors qu’en réalité ces machines sont simplement entraînées à calculer la suite la plus probable à une phrase pour avoir l’air le plus humain. Ça n'a rien à voir avec le vrai ou le faux”, assène Carles Sierra.Un exemple frappant concernant les images. Il s'agit d'une image qui pourrait être une photo prise en France lors des nombreuses manifestations contre la réforme des retraites et qui a été diffusée notamment sur plusieurs comptes Facebook et Twitter dans les derniers jours du mois de mars 2023, pour dénoncer les violences policières. Le visage d’une personne âgée et ensanglantée, entourée par ce qui s’apparente à des CRS. Or selon Guillaume Brossard, le créateur du site HoaxBuster, il n’y a que peu de doutes : l’image en question présente certains défauts, qui sont le signe d’une création par un logiciel, et probablement Midjourney (dont la dernière version 5 est sortie justement en ce mois de mars)...

De quoi faire de ces outils de formidables armes de désinformation massive.

Mais pas seulement : “Il est urgent de se demander ce qui va se passer quand les gens vont commencer à prendre des décisions qui auront un impact sur leur vie en fonction des réponses de ses IA”, ajoute Joseph Sifakis. Quid, par exemple, si un juge demande à GPT-4 quelle est la meilleure sentence à prononcer dans une affaire ?

Un cas d'utilisation d'une IA peut illustrer ce danger. Une IA est en effet soupçonnée d’avoir poussé un homme au suicide en Belgique. Présentée comme une femme, Eliza utilise un robot conversationnel appelé Chai, développé par une start-up basée dans la Silicon Valley.A première vue, Eliza est une intelligence artificielle générative comme une autre dans la galaxie des chatbots qui se base sur le modèle de langage GPT-J, similaire à Chat-GPT. Mais pour la veuve d’un père de famille belge qui en serait tombé amoureux, les conversations que son mari a entretenues avec IA l’ont conduit au suicide .

À l’origine de l'affaire, ce Belge avait commencé à discuter avec le chatbot alors qu’il était devenu "éco-anxieux" et obsédé par la catastrophe imminente du réchauffement climatique, il y a deux ans de cela. Après six semaines d’intenses conversations, Eliza devient sa véritable "confidente", "comme une drogue (...) dont il ne pouvait plus se passer", raconte sa femme.

Jusqu’à la bascule. "Il évoque l’idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence", confie sa veuve. Mais ses idées suicidaires ne suscitent aucune objection de la part d’Eliza: au contraire, elle lui demande pourquoi il n’a toujours pas mis ses paroles à exécution. "Nous vivrons ensemble, comme une seule personne, au paradis", lui écrit le chatbot. L'homme finira par passer à l'acte.

Le risque posé par les intelligences artificielles n’est pas seulement le fait qu’elles adoptent des comportements trop humains: c’est aussi celui que les humains se persuadent à tort qu’une IA est humaine.

Pourquoi un moratoire pour les IA ?

Ceci pour que leurs progrès et leurs courbes d’apprentissages pour générer automatiquement des textes et des images d’une manière toujours plus perfectionnée, ne se fasse pas hors de tout contrôle. "Devons nous laisser des machines inonder nos canaux d’information avec de la propagande et des mensonges ? ", s’interroge le texte.

Un pas de plus dans cette direction pourrait amener l’humanité à “développer des consciences non humaines qui nous rendraient obsolètes et nous remplaceraient”, écrivent les auteurs du document. Pour eux, ce qui est en jeu, c’est “la perte de contrôle sur l’avenir de notre civilisation”.

Parmi les solutions envisagées figurent la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel, ou encore des nouvelles autorités et institutions capables de gérer les " perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera ".

Un constat qui est loin d’être partagé par tout le monde, et qui a suscité un vif débat dans la communauté de chercheurs sur le sujet. Yann Le Cun, un expert français de l’intelligence artificielle mondialement reconnu, responsable des recherches chez Meta (Facebook) en la matière, n’a pas caché son scepticisme face au texte diffusé.

“Cette lettre ouverte est un bazar sans nom qui surfe sur la vague médiatique de l’IA sans aborder les vrais problèmes”, estime Emily M. Bender, chercheuse à l’université de Washington et coautrice d’un article de référence sur les dangers de l’IA paru en 2020. Daniel Leufer, spécialiste des technologies innovantes travaillant sur les défis sociétaux posés par l’AI pour l’ONG de défense des droits sur Internet Access Now, va encore plus loin:

 “La perspective d’une superintelligence trop puissante ou d’une conscience non humaine revêt encore largement du domaine de la science-fiction. Ce n’est pas la peine de jouer sur les peurs d’un hypothétique futur alors que l’intelligence artificielle représente déjà un danger pour la démocratie, l’environnement et l’économie”.


Simon Freman pour DayNewsWorld