Aujourd’hui, des millions de personnes font confiance à ChatGPT en tant que ressource utile, que ce soit pour le travail, le divertissement ou l’éducation. Mais pouvez-vous vous fier à ce chatbot d’IA pour qu’il vous fournisse toujours les faits ? ChatGPT ment-il parfois, ou ne vous donnera-t-il que des informations factuelles ?
D’où ChatGPT tire-t-il ses informations ?
Au cours de sa période de formation, ChatGPT a été alimenté en données provenant de sources du web, telles que des sites web de gouvernements et d’agences, des revues scientifiques, des études, des articles de presse, des podcasts, des forums en ligne, des livres, des bases de données, des films, des documentaires et des médias sociaux.
Plus précisément, ChatGPT-3 a été entraîné à l’aide d’une vaste base de données d’informations qui s’élevait à 570 Go de données. Comme l’indique un article de Science Focus, 300 milliards de mots d’information ont été introduits dans le système GPT-3 au cours de son développement.
Il convient de noter que le ChatGPT n’a été alimenté qu’avec des données antérieures à 2021. Cela signifie que le chatbot ne peut pas répondre à des questions relatives à des événements récents. ChatGPT n’a pas non plus accès à l’internet. Les données qui lui ont été fournies lors de la formation sont les seules qu’il utilise pour répondre aux demandes des utilisateurs.
Mais ChatGPT ne vous fournit-il que des faits, ou des informations plus ambiguës se mêlent-elles à ses réponses ? En outre, ChatGPT peut-il vous mentir ?
ChatGPT ment-il ?
Bien que ChatGPT fournisse souvent des informations véridiques aux utilisateurs, il a la capacité de « mentir ». Bien sûr, ChatGPT ne décide pas de mentir malicieusement aux utilisateurs, car il ne peut tout simplement pas le faire. Après tout, ChatGPT est un outil de traitement du langage, et non une imitation d’une personne réelle et sensible.
Cependant, ChatGPT peut techniquement toujours mentir grâce à un phénomène connu sous le nom d’hallucination de l’IA.
L’hallucination de l’IA implique qu’un système d’IA fournisse des informations qui semblent raisonnables ou plausibles mais qui, en réalité, ne sont pas du tout vraies. En fait, l’hallucination de l’IA peut fournir des informations qu’elle n’a jamais reçues pendant sa période de formation. Elle peut également se produire lorsqu’un système d’IA fournit des informations qui n’ont rien à voir avec l’invite ou la demande. Un système d’IA peut même prétendre être humain lors d’une hallucination.
Les systèmes d’IA, tels que les chatbots, tombent dans le piège de l’hallucination pour plusieurs raisons : leur manque de compréhension du monde réel, les bogues logiciels et les limites des données fournies.
Comme indiqué précédemment, ChatGPT ne peut fournir des informations qu’à partir de données publiées jusqu’en 2021, ce qui limite certainement les types de questions auxquelles il peut répondre.
L’un des grands problèmes de ChatGPT est qu’il peut également être victime de préjugés lorsqu’il fournit des informations aux utilisateurs. Même les créateurs de ChatGPT ont déclaré que le système d’IA a été « politiquement partial, offensant » et « autrement répréhensible » dans le passé. Comme le rapporte The Independent, les développeurs de ChatGPT se sont engagés à résoudre ce problème, mais cela ne signifie pas que le risque n’existe plus.
Interrogé à ce sujet, ChatGPT a déclaré que les raisons pour lesquelles il peut fournir des informations inexactes sont les suivantes :
- Ambiguïté de la question (messages vagues et peu clairs) ;
- Informations incomplètes ;
- Informations partiales ou incorrectes fournies ; ou,
- Limites techniques (principalement dues au manque d’accès aux données actuelles).
Ainsi, ChatGPT lui-même a déclaré qu’il existe des scénarios dans lesquels il ne fournira pas d’informations exactes aux utilisateurs.
Dans une autre réponse de la même conversation, ChatGPT a déclaré que « c’est toujours une bonne idée de vérifier toute information ». [it provides] auprès d’autres sources ».
Pouvez-vous faire confiance à ChatGPT ?
Parce qu’il peut fournir de fausses informations, vous ne pouvez clairement pas faire confiance à ChatGPT à 100 %.
Vous pouvez réduire le risque d’hallucination d’un chatbot IA en définissant des paramètres spécifiques sur la manière dont il peut vous répondre. Cependant, il n’y a toujours pas de garantie que de fausses informations ne passeront pas à travers les mailles du filet.
Pour cette raison, il est préférable de vérifier toutes les informations que ChatGPT vous donne, en particulier si vous demandez des informations sur des événements récents. Vérifier ces données en se référant à d’autres sources peut vous aider à déterminer si ChatGPT a raison dans ce qu’il dit et peut vous empêcher de prendre des décisions malavisées.
ChatGPT est utile mais pas toujours véridique
Malheureusement, vous ne pouvez pas compter sur ChatGPT pour fournir des informations véridiques et impartiales 100 % du temps. Ce chatbot doté d’une IA est indéniablement utile et peut vous aider de diverses manières, mais il est toujours utile de vérifier si les informations qu’il fournit sont factuelles.
