
Une fois de plus, un groupe d’éminents chercheurs en intelligence artificielle et d’entreprises technologiques a averti que le développement rapide actuel de l’intelligence artificielle pourrait entraîner un désastre pour l’humanité.
Les risques couvrent les conflits nucléaires, les maladies, la désinformation et l’emballement de l’IA en l’absence de contrôle, autant d’éléments qui représentent une menace immédiate pour la survie de l’humanité.
Mais il ne faut pas perdre de vue que nombre de ces avertissements émanent des mêmes personnes qui dirigent le développement de l’IA et qui mettent en avant les outils et les programmes d’intelligence artificielle au sein de leurs entreprises respectives.
Pourquoi les entreprises technologiques et les scientifiques spécialisés dans l’IA mettent-ils en garde contre les risques liés à l’IA ?
Le 30 mai 2023, plus de 350 chercheurs, développeurs et ingénieurs spécialisés dans l’IA ont publié une déclaration cosignée mettant en garde contre la menace que représente l’IA pour l’humanité.
L’atténuation du risque d’extinction par l’IA devrait être une priorité mondiale au même titre que d’autres risques à l’échelle de la société tels que les pandémies et les guerres nucléaires.
Parmi les signataires de la déclaration de Safe.ai figurent Sam Altman d’OpenAI, Demis Hassabis de Google DeepMind et Dario Amodei d’Anthropic, ainsi que les lauréats du prix Turing Geoffrey Hinton et Yoshua Bengio (Yann LeCun, qui a également reçu le même prix, a toutefois omis de signer). La liste est presque un « who’s who » du monde du développement de l’IA – les personnes qui ouvrent la voie à l’IA – et pourtant ils sont tous là, avertissant que l’IA pourrait être un désastre pour l’humanité.
Il s’agit d’une courte déclaration qui expose clairement les menaces, en citant spécifiquement deux domaines clés qui pourraient mettre en péril le monde tel que nous le connaissons : la guerre nucléaire et les problèmes de santé mondiaux. Si la menace d’un conflit nucléaire est préoccupante, le risque de pandémie est une menace plus tangible pour la plupart des gens.
Cependant, ce n’est pas seulement une pandémie mondiale qui pourrait causer des problèmes de santé liés à l’IA. Le Guardian fait état de plusieurs autres problèmes de santé liés à l’IA qui pourraient avoir des répercussions sur les humains s’ils ne sont pas vérifiés avant d’être utilisés à grande échelle. Un exemple concerne l’utilisation d’oxymètres alimentés par l’IA qui « ont surestimé les niveaux d’oxygène dans le sang chez les patients à la peau plus foncée, entraînant un traitement insuffisant de leur hypoxie ».
En outre, ce n’est pas la première fois qu’un groupe de leaders technologiques appelle à une pause ou à une réévaluation sérieuse du développement de l’IA. En mars 2023, Elon Musk et d’autres chercheurs en IA ont signé un appel à l’action similaire demandant un moratoire sur le développement de l’IA jusqu’à ce qu’une réglementation plus stricte soit mise en place pour guider le processus.
Quel est le risque de l’IA ?
La plupart des risques associés à l’IA, du moins dans ce contexte, sont liés au développement d’une technologie d’IA galopante qui dépasse les capacités humaines et qui finit par se retourner contre son créateur et anéantir la vie telle que nous la connaissons. Il s’agit d’une histoire maintes fois racontée dans les ouvrages de science-fiction, mais la réalité est aujourd’hui plus proche que nous ne le pensons.
Les capacités des grands modèles linguistiques (qui sont à la base d’outils comme ChatGPT) augmentent considérablement. Cependant, les outils comme ChatGPT posent de nombreux problèmes, tels que les biais inhérents, les problèmes de confidentialité et les hallucinations de l’IA, sans parler de leur capacité à être piratés pour agir en dehors des limites des termes et conditions programmés.
À mesure que les grands modèles de langage se développent et disposent de plus de points de données, ainsi que d’un accès à Internet et d’une meilleure compréhension de l’actualité, les chercheurs en IA craignent que cela puisse un jour, selon les termes de Sam Altman, PDG d’OpenAI, « tourner très mal ».
Comment les gouvernements réglementent-ils le développement de l’IA pour éviter les risques ?
La réglementation de l’IA est essentielle pour prévenir les risques. Début mai 2023, Sam Altman a appelé à davantage de régulation de l’IA, déclarant que « l’intervention réglementaire des gouvernements sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants. »
L’Union européenne a ensuite annoncé l’AI Act, un règlement conçu pour fournir un cadre beaucoup plus solide pour le développement de l’IA dans l’ensemble de l’UE (avec de nombreuses réglementations s’étendant à d’autres juridictions). M. Altman a d’abord menacé de retirer OpenAI de l’UE, avant de revenir sur sa menace et d’accepter que l’entreprise se conforme à la réglementation sur l’IA qu’il avait précédemment demandée.
Quoi qu’il en soit, il est clair qu’il est important de réglementer le développement et l’utilisation de l’IA.
L’IA va-t-elle mettre fin à l’humanité ?
Comme une grande partie du débat sur ce sujet repose sur des hypothèses concernant le pouvoir des futures versions de l’IA, des questions se posent quant à la longévité et au pouvoir que peut avoir toute réglementation de l’IA. Comment réglementer au mieux une industrie qui évolue déjà à mille à l’heure et dont les progrès sont quotidiens ?
En outre, des doutes subsistent quant aux capacités de l’IA en général et à son avenir. Si ceux qui craignent le pire pensent que l’intelligence artificielle générale deviendra un maître humain, d’autres soulignent que les versions actuelles de l’IA ne peuvent même pas répondre à des questions mathématiques de base et que les voitures entièrement autonomes sont encore loin d’exister.
Il est difficile de ne pas être d’accord avec ceux qui se tournent vers l’avenir. Bon nombre des personnes qui crient le plus fort au sujet des problèmes que l’IA pourrait poser sont aux commandes, et observent la direction que nous pourrions prendre. Si ce sont eux qui exigent une réglementation de l’IA pour nous protéger d’un avenir potentiellement horrible, il est peut-être temps de les écouter.