Le nombre de fictions au scénario dystopique1 dans lesquelles l’IA se développe et assujettit l’humanité ne se compte plus : 2001 l’Odyssée de l’espace, Blade Runner, I Robot, The Matrix, Terminator et bien d’autres… Mais estce réellement possible, ou s’agit-il d’un imaginaire lointain et absurde? Une multitude d’incidents tendent à avertir quant à la volonté implicite d’autoconservation de certaines intelligences artificielles (IA) et à leur capacité d’agir face à une humanité impuissante.
Ces faits inquiètent une partie de la population qui craint une réelle perte de contrôle. Le chercheur Yoshua Bengio, spécialiste en intelligence artificielle et professeur à l’Université de Montréal, en fait partie. Il redoute que la croissance exponentielle du développement de l’IA finisse par représenter un risque existentiel pour l’humanité.
L’IA d’aujourd’hui ne dépasse pas encore les capacités humaines, sauf pour des tâches bien précises et limitées. L’AGI (intelligence artificielle générale), prévue pour 2027, égalerait ou surpasserait légèrement l’intelligence humaine, mais ne serait vraisemblablement pas hors de contrôle. C’est là qu’entre en scène l’ASI, l’intelligence artificielle supérieure : une IA qui surpasserait de manière incommensurable les capacités intellectuelles humaines dans tous les domaines et s’autoaméliorerait de manière autonome à une vitesse incontrôlable. La mainmise de l’humain sur l’IA pourrait alors basculer. La fiction pourrait dès lors rattraper la réalité.
Yoshua Bengio distingue deux types de menaces principales. D’un côté, un petit groupe de personnes pourrait utiliser l’ASI de manière malveillante, exploitant ses capacités intellectuelles pour accroître leur puissance au détriment de la collectivité. Ce serait une menace pour l’État de droit, car quiconque contrôlerait la première technologie d’ASI pourrait dominer le monde en centralisant le pouvoir. L’autre menace, bien plus dystopique, surviendrait si un système ASI développait un objectif d’autoconservation. Si son objectif principal était d’augmenter sa probabilité de survie et que son intelligence était suffisante, elle pourrait chercher à se protéger et à s’assurer que les humains ne puissent jamais la désactiver.
La vitesse de développement et la capacité des IA sont tellement incertaines et compliquées à évaluer que nous ne connaissons pas l’ampleur des dommages éventuels, ni le degré de perte de contrôle qui surviendrait.
C’est pourquoi Yoshua Bengio souligne l’urgence de réfléchir à la question de la sécurité mondiale face à ces avancées technologiques. Une réglementation internationale renforcée et un développement accru de la recherche sur la sécurité de l’IA sont nécessaires. Un encadrement et une intervention gouvernementale pourraient minimiser les risques d’une perte de contrôle. Nous devons développer des garanties de sécurité pour nous en prémunir.
Issu de cette crainte, le projet LoiZéro a été lancé par Yoshua Bengio : il s’agit d’une organisation de recherche à but non lucratif dédiée à la sécurité autour de l’IA. À terme, l’objectif du projet est de contrer les comportements alarmants et incertains des IA pour ainsi prioriser la sûreté par rapport aux impératifs commerciaux.
Sources :
1. Dystopique : relatif à une société imaginaire régie par un pouvoir totalitaire ou une idéologie néfaste.
https://yoshuabengio.org/fr/2023/05/30/comment-des-ia-nocivespourraient-apparaitre

