Les dernières innovations en matière de technologie basée sur l’IA repoussent les limites de ce que nous pensions être possible avec l’IA. Cependant, avec des chatbots comme ChatGPT et Bing Chat qui deviennent presque aussi bons que les humains dans plusieurs domaines, est-il temps de freiner un peu ?
Elon Musk et plusieurs chercheurs en IA font partie des 1 188 personnes (à l’heure où nous écrivons ces lignes) qui le pensent. Une lettre publiée par l’institut à but non lucratif Future of Life appelle à une pause de six mois dans la formation de technologies d’IA meilleures que le GPT 4, mais une pause est-elle vraiment nécessaire ?
De quoi parle la lettre ouverte de Future of Life ?
La lettre publiée par l’institut Future of Life souligne que les laboratoires d’IA ont été « enfermés dans une course incontrôlée » pour développer et déployer des modèles d’IA de plus en plus puissants que personne, y compris leurs créateurs, ne peut « comprendre, prédire ou contrôler de manière fiable ».
Il souligne également que les systèmes d’IA contemporains deviennent aujourd’hui compétitifs par rapport aux humains pour des tâches générales et pose la question de savoir si nous devrions développer « des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ».
La lettre demande enfin à tous les laboratoires d’IA d’interrompre immédiatement la formation de systèmes d’IA plus puissants que le GPT-4 pendant au moins six mois. Cette pause devrait être publique et vérifiable par tous les acteurs clés. La lettre indique également que si une telle pause ne peut être appliquée rapidement, les gouvernements devraient intervenir pour interdire temporairement la formation de modèles d’IA.
Une fois la pause activée, les laboratoires d’IA et les experts indépendants sont invités à l’utiliser pour développer et mettre en œuvre conjointement un « ensemble partagé de protocoles de sécurité » afin de garantir que les systèmes qui adhèrent à ces règles sont « sûrs au-delà de tout doute raisonnable ».
Cette lettre a été signée par de nombreuses personnalités, dont Elon Musk, Steve Wozniak, ainsi que des chercheurs et des auteurs spécialisés dans l’IA. En fait, la liste des signataires est actuellement interrompue en raison de la forte demande.
Quelles sont les préoccupations de Musk concernant les technologies d’IA avancées et l’OpenAI ?
Si le fait d’avoir signé la lettre de Future of Life pourrait indiquer que Musk est préoccupé par les risques de sécurité que posent ces systèmes d’IA avancés, la véritable raison pourrait être autre.
Musk a cofondé OpenAI avec l’actuel PDG Sam Altman en 2015 en tant qu’association à but non lucratif. Cependant, il s’est brouillé avec Altman plus tard en 2018 après avoir réalisé qu’il n’était pas satisfait des progrès de l’entreprise. Musk aurait voulu prendre la relève pour accélérer le développement, mais Altman et le conseil d’administration d’OpenAI ont rejeté l’idée.
Musk a quitté OpenAI peu de temps après et a emporté son argent avec lui, rompant sa promesse de contribuer au financement à hauteur d’un milliard et ne donnant que 100 millions avant de partir. Cela a contraint OpenAI à devenir une société privée peu de temps après, en mars 2019, afin de lever des fonds pour poursuivre ses recherches.
Une autre raison du départ de Musk est que le développement de l’IA chez Tesla entraînerait un conflit d’intérêts à l’avenir. Il est évident que Tesla a besoin de systèmes d’IA avancés pour alimenter ses fonctions de conduite autonome. Depuis que Musk a quitté OpenAI, l’entreprise s’est enfuie avec ses modèles d’IA, en lançant ChatGPT (GPT3.5) en 2022 et en poursuivant avec GPT-4 en mars 2023.
Le fait que l’équipe de Musk chargée de l’IA soit loin de l’OpenAI doit être pris en compte chaque fois qu’il affirme que les modèles d’IA modernes pourraient présenter des risques. Il n’a également eu aucun problème à déployer la version bêta de la Tesla Full Self-Driving sur les routes publiques, transformant essentiellement les conducteurs habituels de Tesla en bêta-testeurs.
Cela ne s’arrête pas là non plus. Musk a également critiqué OpenAI sur Twitter, et Altman est allé jusqu’à dire qu’il l’attaquait alors qu’il participait récemment au podcast « On with Kara Swisher ».
Pour l’instant, il semble que Musk utilise la lettre Future of Life pour interrompre le développement d’OpenAI et de toute autre entreprise rattrapant le GPT-4 afin de donner à ses entreprises une chance de se rattraper, au lieu de se préoccuper réellement des dangers potentiels que posent ces modèles d’IA. Il est à noter que la lettre demande également d’interrompre la « formation » des systèmes d’IA pendant six mois, ce qui peut être contourné assez facilement pour continuer à les développer entre-temps.
Une pause est-elle vraiment nécessaire ?
La nécessité d’une pause dépend de l’état des modèles d’IA à l’avenir. Le ton de la lettre est certainement un peu dramatique, et nous ne risquons pas de perdre le contrôle de notre civilisation au profit de l’IA, comme elle l’affirme ouvertement. Cela dit, les technologies de l’IA posent quelques menaces.
Étant donné que l’OpenAI et d’autres laboratoires d’IA peuvent mettre en place de meilleurs contrôles de sécurité, une pause ferait plus de mal que de bien. Cependant, la suggestion de la lettre d’un ensemble de protocoles de sécurité partagés qui sont « rigoureusement audités et supervisés par des experts externes indépendants » semble être une bonne idée.
Les géants de la technologie comme Google et Microsoft consacrant des milliards au développement de l’IA et à son intégration dans leurs produits, il est peu probable que la lettre affecte le rythme actuel du développement de l’IA.
L’IA est là pour durer
Les géants de la technologie poussent l’intégration de l’IA dans leurs produits et investissent des milliards de dollars dans la recherche et le développement. L’IA est là pour rester, quoi qu’en disent les opposants.
Mais il n’est pas inutile de mettre en place des mesures de sécurité pour éviter que ces technologies ne dérapent et ne se transforment en outils nuisibles.