Les hallucinations liées à l’intelligence artificielle (IA) laissent perplexe. Vous vous dites probablement : « L’hallucination n’est-elle pas un phénomène humain ? » Eh bien, oui, c’était un phénomène exclusivement humain jusqu’à ce que l’IA commence à présenter des caractéristiques humaines telles que la reconnaissance faciale, l’auto-apprentissage et la reconnaissance vocale.
Malheureusement, l’IA a pris certaines caractéristiques négatives, dont les hallucinations. Les hallucinations de l’IA sont-elles donc similaires à celles que connaissent les humains ?
Qu’est-ce que l’hallucination de l’IA ?
L’hallucination de l’intelligence artificielle se produit lorsqu’un modèle d’intelligence artificielle génère des résultats différents de ceux attendus. Il convient de noter que certains modèles d’intelligence artificielle sont entraînés à générer intentionnellement des résultats sans rapport avec les données d’entrée du monde réel.
Par exemple, les meilleurs générateurs de texte-art de l’IA, tels que DALL-E 2, peuvent générer de manière créative de nouvelles images que nous pouvons qualifier d' »hallucinations » puisqu’elles ne sont pas basées sur des données du monde réel.
L’hallucination de l’IA dans les grands modèles de traitement du langage
Voyons à quoi ressemblerait l’hallucination de l’IA dans un grand modèle de traitement du langage tel que ChatGPT. Une hallucination de ChatGPT résulterait du fait que le robot vous donnerait un fait incorrect accompagné d’une assertion, de sorte que vous prendriez naturellement ces faits pour des vérités.
En termes simples, il s’agit d’affirmations inventées par le chatbot artificiellement intelligent. Voici un exemple :
En demandant plus d’informations, ChatGPT a trouvé ceci :
L’hallucination de l’IA dans la vision par ordinateur
Examinons un autre domaine de l’IA qui peut connaître une hallucination de l’IA : la vision par ordinateur. Le quiz ci-dessous montre un montage 4×4 avec deux entités qui se ressemblent beaucoup. Les images sont un mélange de chips BBQ et de feuilles.
Le défi consiste à sélectionner les chips sans toucher les feuilles dans le montage. Cette image peut sembler délicate à un ordinateur, qui pourrait être incapable de faire la différence entre les chips BBQ et les feuilles.
Voici un autre montage avec un mélange d’images de caniches et de brioches de porc. Un ordinateur serait probablement incapable de les différencier, c’est pourquoi les images sont mélangées.
Pourquoi l’hallucination de l’IA se produit-elle ?
L’hallucination de l’IA peut être due à des exemples contradictoires, c’est-à-dire des données d’entrée qui trompent une application d’IA en la classant de manière erronée. Par exemple, lors de la formation des applications d’IA, les développeurs utilisent des données (images, textes ou autres) ; si les données sont modifiées ou déformées, l’application interprète l’entrée différemment et produit un résultat erroné.
En revanche, un humain peut toujours reconnaître et identifier les données avec précision malgré les distorsions. Il s’agit là de bon sens, un attribut humain que l’IA ne possède pas encore. Regardez comment l’IA est trompée par des exemples contradictoires dans cette vidéo :
En ce qui concerne les grands modèles basés sur le langage tels que ChatGPT et ses alternatives, les hallucinations peuvent provenir d’un décodage inexact de la part du transformateur (modèle d’apprentissage automatique).
En IA, un transformateur est un modèle d’apprentissage profond qui utilise l’auto-attention (relations sémantiques entre les mots d’une phrase) pour produire un texte similaire à ce qu’un humain écrirait en utilisant une séquence codeur-décodeur (entrée-sortie).
Ainsi, les transformateurs, un modèle d’apprentissage automatique semi-supervisé, peuvent générer un nouveau corps de texte (sortie) à partir du grand corpus de données textuelles utilisé dans sa formation (entrée). Pour ce faire, il prédit le mot suivant d’une série en se basant sur les mots précédents.
En ce qui concerne l’hallucination, si un modèle de langage a été formé à partir de données et de ressources insuffisantes et inexactes, on peut s’attendre à ce que le résultat soit inventé et inexact. Le modèle de langage pourrait générer une histoire ou un récit sans incohérences logiques ou connexions floues.
Dans l’exemple ci-dessous, on a demandé à ChatGPT de donner un mot similaire à « révolte » et commençant par un « b ». Voici sa réponse :
En approfondissant la question, il a continué à donner des réponses erronées, avec un niveau de confiance élevé.
Pourquoi ChatGPT est-il incapable de donner une réponse précise à ces questions ?
Il se peut que le modèle de langage ne soit pas équipé pour traiter des invites aussi complexes que celles-ci ou qu’il ne puisse pas interpréter l’invite avec précision, en ignorant l’invitation à donner un mot similaire avec un alphabet spécifique.
Comment repérer une hallucination de l’IA ?
Il est désormais évident que les applications d’IA ont le potentiel d’halluciner, c’est-à-dire de générer des réponses différentes de celles attendues (faits ou vérité) sans aucune intention malveillante. C’est aux utilisateurs de ces applications qu’il appartient de repérer et de reconnaître les hallucinations de l’IA.
Voici quelques moyens de repérer les hallucinations de l’IA lors de l’utilisation d’applications d’IA courantes :
1. Grands modèles de traitement du langage
Bien que cela soit rare, si vous remarquez une erreur grammaticale dans le contenu produit par un grand modèle de traitement, tel que ChatGPT, cela devrait vous faire sourciller et vous faire suspecter une hallucination. De même, lorsque le contenu généré par le texte ne semble pas logique, n’est pas en corrélation avec le contexte donné ou ne correspond pas aux données d’entrée, vous devez suspecter une hallucination.
L’utilisation du jugement humain ou du bon sens peut aider à détecter les hallucinations, car les humains peuvent facilement identifier lorsqu’un texte n’a pas de sens ou ne correspond pas à la réalité.
2. Vision par ordinateur
Branche de l’intelligence artificielle, de l’apprentissage automatique et de l’informatique, la vision par ordinateur permet aux ordinateurs de reconnaître et de traiter des images comme des yeux humains. Les réseaux neuronaux convolutifs s’appuient sur l’incroyable quantité de données visuelles utilisées pour leur formation.
Tout écart par rapport aux modèles des données visuelles utilisées pour la formation entraîne des hallucinations. Par exemple, si un ordinateur n’a pas été entraîné avec des images d’une balle de tennis, il pourrait l’identifier comme une orange verte. Ou si un ordinateur reconnaît un cheval à côté d’une statue humaine comme étant un cheval à côté d’un vrai humain, il y a hallucination de l’IA.
Pour repérer une hallucination de vision par ordinateur, il faut donc comparer les résultats générés à ceux d’un logiciel de vision par ordinateur. [normal] humain est censé voir.
3. Voitures auto-conduites
Grâce à l’IA, les voitures autonomes s’infiltrent progressivement sur le marché de l’automobile. Des pionniers comme Tesla Autopilot et Ford BlueCruise ont défendu la scène des voitures autonomes. Vous pouvez voir comment et ce que voit l’Autopilot de Tesla pour comprendre un peu mieux comment l’IA alimente les voitures autopilotées.
Si vous possédez l’une de ces voitures, vous voudrez savoir si votre voiture à IA a des hallucinations. L’un des signes sera que votre véhicule semble s’écarter de son comportement normal pendant la conduite. Par exemple, si le véhicule freine ou fait une embardée soudaine sans raison évidente, il se peut que votre voiture IA soit en proie à des hallucinations.
Les systèmes d’IA peuvent aussi halluciner
Les humains et les modèles d’IA ne vivent pas les hallucinations de la même manière. En ce qui concerne l’IA, les hallucinations font référence à des résultats erronés qui sont à mille lieues de la réalité ou qui n’ont pas de sens dans le contexte de l’invite donnée. Par exemple, un chatbot d’IA peut donner une réponse grammaticalement ou logiquement incorrecte ou mal identifier un objet en raison du bruit ou d’autres facteurs structurels.
Les hallucinations de l’IA ne résultent pas d’un esprit conscient ou subconscient, comme c’est le cas chez les humains. Elles résultent plutôt de l’inadéquation ou de l’insuffisance des données utilisées pour la formation et la programmation du système d’IA.