L’intelligence artificielle peut-elle égaler l’intelligence humaine ? C’est une question délicate qui touche à la philosophie, à la psychologie, à l’informatique et à tous les autres sujets. Chaque fois que l’on parle d’intelligence artificielle de niveau humain, le test de Turing n’est jamais très loin.
En 2014, les journalistes de l’internet ont explosé de joie lorsqu’un programme informatique basé à Londres, Eugene Goostman, a apparemment réussi le test de Turing. En 2022, le LaMDA de Google aurait fait de même, mais que s’est-il passé ? Ont-ils réussi le test ? Que signifient les progrès de l’intelligence artificielle pour le test de Turing ?
Qu’est-ce que le test de Turing ?
Appelé à l’origine « The Imitation Game », le test de Turing a été mis au point par Alan Turing. Malgré son nom, le test de Turing n’est pas un véritable test, du moins pas au sens courant du terme. Il s’agit plutôt d’une expérience de pensée. Néanmoins, Alan Turing est un mathématicien très influent qui a formalisé de nombreux concepts qui ont conduit à la naissance de l’informatique.
Le test de Turing est un ensemble de lignes directrices visant à déterminer si une machine est indiscernable d’un être humain. Il tente de répondre à la question « Les machines peuvent-elles penser ? ». Turing pensait que c’était possible et a conçu quelque chose qui pourrait ressembler à une sorte de jeu.
Voici l’interprétation standard du test de Turing :
- Vous interrogez deux personnes
- La personne A est une machine, tandis que la personne B est un être humain.
- Vous ne pouvez communiquer avec eux que par texte.
- En posant des questions, déterminez qui est une machine et qui est un humain.
La durée standard du jeu pour le test peut varier de quelques minutes à plusieurs heures. La qualité et le contenu de la conversation sont des facteurs importants de la durée. Un test de durée fixe peut également être administré ; la durée standard est généralement de cinq minutes.
Le critère conventionnel de réussite du test est subjectif mais, en règle générale, il exige que la machine trompe au moins 30 % de tous les interrogateurs humains. Turing a prédit que toute machine qui y parviendrait serait suffisamment « intelligente » pour être qualifiée de « machine pensante ».
Inconvénients du test de Turing
Bien que le test de Turing vise à déterminer si les machines peuvent penser, il présente certains inconvénients.
Le principal inconvénient du test de Turing est que le fait qu’une machine ne puisse être distinguée d’un être humain n’indique pas nécessairement qu’elle est intelligente. En d’autres termes, le test de Turing prouve-t-il la capacité d’une machine à penser par elle-même ou la capacité d’une machine à imiter le comportement humain ? Il s’agit d’une différence subtile aux implications considérables. Après tout, il est concevable qu’un chatbot doté de suffisamment de lignes de code puisse imiter une conversation humaine sans jamais être véritablement intelligent. Cela soulève une autre question. Le comportement externe suffit-il à indiquer les pensées internes ?
Un autre inconvénient majeur à noter est l’absence de groupe de contrôle. Par définition, les résultats du test de Turing sont basés sur un groupe d’interrogateurs, mais tout le monde n’est pas égal. Bien que Turing précise que les critères ne s’appliquent qu’aux « interrogateurs moyens ». Par définition, le terme « moyen » n’est pas spécifique et, par conséquent, des interrogateurs différents produiront des résultats variés et incohérents.
En outre, la nature arbitraire des critères de test pose problème. Pourquoi y a-t-il une limite de cinq minutes et pourquoi le taux de tromperie des interrogateurs est-il fixé à 30 % ? Pourquoi pas dix minutes et 50 % ? La vérité est que ces chiffres sont dérivés des prédictions de Turing sur l’état futur de l’intelligence artificielle. Il n’a jamais voulu en faire des seuils explicites. Toutefois, pour l’instant, ces chiffres sont suffisants comme objectif à atteindre.
Eugene Goostman ou LaMBDA ont-ils réussi le test de Turing ?
Au cours des dix dernières années, deux affirmations principales ont été formulées quant à la réussite du test de Turing.
Eugene Goostman
En juin 2014, un chatbot nommé Eugene Goostman a affirmé avoir passé le test de Turing pour la première fois. Développé par une équipe de programmeurs ukrainiens, le chatbot s’est fait passer pour un garçon ukrainien de 13 ans et a réussi à convaincre 33 % d’un panel composé de 30 participants humains au cours d’une série de conversations de cinq minutes.
Depuis 2014, de nombreuses spéculations et controverses ont entouré cette affirmation. L’une des principales critiques formulées à l’encontre d’Eugene Goostman concernait l’abaissement trompeur des critères du test de Turing. Les développeurs prétendaient que l’ordinateur était un garçon de 13 ans qui ne parlait pas l’anglais et qui vivait suffisamment loin de la société moderne pour ignorer des sujets tels que la géographie, la culture pop, etc.
En plaçant Eugene Goostman dans ce contexte, les interrogateurs n’ont pas eu à tenir les réponses de la machine pour normales. Après tout, de nombreux chatbots modernes peuvent tenir des conversations similaires. La différence avec Eugene Goostman est que le contexte narratif entourant la machine a permis de rendre les hoquets de la conversation plus crédibles.
LaMBDA de Google
Eugene Goostman n’a peut-être pas réussi le test de Turing, mais qu’en est-il du LaMDA de Google ?
En 2022, un ingénieur de Google, Blake Lemoine, a affirmé que l’un des modèles de langage d’intelligence artificielle de l’entreprise, connu sous le nom de LaMDA (Language Models for Dialogue Applications), avait passé avec succès le test de Turing. Blake Lemoine a également affirmé que LaMDA était sensible. Il a ensuite rendu l’information publique, partageant les interactions textuelles entre lui et le modèle de langage d’intelligence artificielle, après quoi il a été mis en congé payé et finalement licencié, selon The Guardian.
Lemoine s’est particulièrement intéressé à un cas où il a demandé : « Que signifie pour vous le mot ‘âme’ ? » LaMDA de Google a répondu : « Pour moi, l’âme est un concept de force animatrice derrière la conscience et la vie elle-même. »
Lemoine a prétendu qu’il s’agissait d’un LaMDA craignant sa mortalité. Malheureusement, cela s’est rapidement avéré faux, et LaMDA n’a pas passé le test de Turing. Les critiques soulignent que dans ce cas, LaMDA a réussi à tromper un participant, et que celui-ci savait qu’il parlait à une machine. Le sentiment de mortalité de LaMDA était simplement le résultat d’un code conçu pour fonctionner de la même manière qu’un correcteur automatique.
Les progrès de l’intelligence informatique
Ces dernières années, l’intelligence artificielle a connu des avancées majeures. L’attention du public s’est portée sur ChatGPT depuis son lancement officiel en novembre 2022. Par ailleurs, Google a introduit son IA générative, Bard. Celle-ci est actuellement disponible pour les utilisateurs du Royaume-Uni et des États-Unis.
L’intelligence informatique se concentre sur les technologies d’apprentissage profond, le traitement du langage naturel, l’apprentissage par renforcement, les réseaux adversaires génératifs et l’informatique périphérique avec l’intégration de l’IoT. Tous ces domaines ont connu des avancées significatives au cours des cinq dernières années. Ces domaines continuent d’évoluer à un rythme incroyable grâce à l’intelligence informatique utilisée pour s’améliorer.
L’intelligence artificielle est actuellement utilisée par le public dans le monde entier. Des millions de requêtes sont effectuées chaque jour, de sorte que l’IA est certainement exposée à une grande quantité de données. Cela permettra sans aucun doute aux modèles d’IA d’imiter le langage et le comportement humains. Toutefois, l’intelligence ou la sensibilité pourrait nécessiter des avancées significatives dans les technologies de base du modèle d’IA. Certains se demandent si les progrès de l’IA présentent des dangers.
ChatGPT
ChatGPT continue de se développer dans ses diverses utilisations. Ce modèle d’IA en 2023 fait couler beaucoup d’encre, et il est facile de comprendre pourquoi. Cependant, bien qu’il y ait des spéculations, aucune étude officielle n’a été publiée sur la capacité de ChatGPT à passer le test de Turing.
De nombreux experts du secteur affirment que le test de Turing pourrait être battu avec ChatGPT-5, mais il n’y a pas encore de calendrier pour la sortie de la prochaine version de ChatGPT.
Le test de Turing n’a pas été définitivement réussi
L’intelligence artificielle continue de se développer, et bien qu’il y ait eu plusieurs revendications, il n’y a toujours pas d’accord définitif de l’industrie sur le fait que le test de Turing a été battu. Cela est dû en grande partie à la nature subjective de ce qui constitue l' »intelligence » et aux limites des paramètres du test de Turing.
Nombreux sont ceux qui pensent que le test de Turing ne fait qu’encourager l’imitation humaine plutôt qu’une véritable intelligence de la pensée. En fait, d’autres tests d’intelligence artificielle plus sophistiqués et plus spécifiques ont été conçus ces dernières années. Peut-être qu’au fur et à mesure que l’intelligence artificielle s’améliore dans l’imitation humaine, la seule véritable façon de mesurer l’intelligence de la machine est d’utiliser un test différent.
Le test de Turing est peut-être emblématique, mais il est peut-être temps de le mettre de côté et de passer à autre chose.