À moins que vous ne viviez sous une roche, vous avez probablement entendu parler de ChatGPT ou d’un chatbot IA similaire, et vous l’avez même utilisé. Bien que l’utilisation de ces chatbots soit certainement amusante, elle peut également être dangereuse si vous ne savez pas ce que vous faites.
Ces chatbots ont des limites, et il est important de les comprendre. Voici donc six choses que vous devriez éviter de demander à un chatbot IA.
1. Diagnostic médical
Les chatbots IA sont bons à beaucoup de choses, mais fournir des diagnostics médicaux précis n’en fait pas partie. Bien sûr, ils ne se trompent peut-être pas tout le temps, mais faire confiance à un chatbot pour diagnostiquer votre maladie au lieu d’un médecin revient à googler vos symptômes.
Un chatbot se contentera de résumer les informations qu’il a extraites d’Internet et qui peuvent être vraies ou fausses. Plus important encore, il ne connaît pas vos antécédents médicaux ni votre tolérance à certaines substances et ne peut donc pas juger du type de traitement qui vous conviendrait.
L’internet a tendance à exagérer les choses, il n’est donc pas étonnant que de nombreuses personnes qui recherchent leurs symptômes se retrouvent en proie à l’hypocondrie et à une forte anxiété. L’utilisation de chatbots IA peut reproduire le même effet et aggraver la situation. Dans votre propre intérêt, ne consultez pas un chatbot pour obtenir des conseils médicaux.
2. Commentaires sur les produits
Un chatbot IA peut facilement indiquer le prix et les caractéristiques d’un produit qui pourrait vous intéresser, mais il ne peut jamais donner un avis sur un produit. Pourquoi ? Parce que, par définition, une évaluation de produit inclut l’opinion personnelle, l’expérience et le jugement de l’évaluateur.
L’IA n’a pas la capacité de voir, de sentir, de toucher, de goûter ou d’entendre, et donc les affirmations qu’elle ferait à propos d’un produit – n’importe quel produit, pas seulement technologique – dans sa « critique » seraient fallacieuses.
Par exemple, un chatbot d’IA ne peut pas ressentir la sensation en main d’un téléphone, la clarté de son haut-parleur, la qualité de son moteur de vibration, la fiabilité de son capteur d’empreintes digitales, la fluidité du logiciel et la polyvalence du système de caméra.
Si vous cherchez à obtenir des recommandations sur les produits à acheter, veillez à demander à un chatbot de résumer les avis existants. Vous devrez utiliser un robot d’IA capable d’effectuer des recherches sur le Web, comme Bing avec ChatGPT intégré.
3. Conseils juridiques
Vous avez peut-être titré que ChatGPT a réussi les examens des écoles de droit américaines, et que les chatbots IA sont en passe d’entrer dans nos salles d’audience dans les années à venir. Cela devrait être choquant, mais une recherche rapide vous apprendrait que nous essayons en fait d’introduire l’IA dans notre système juridique depuis 2015 !
Certaines entreprises ont déjà créé des assistants juridiques spécialisés en IA, les commercialisant même comme une alternative abordable aux avocats humains. Le concept a clairement du mérite pour les personnes qui ne peuvent pas se permettre ces derniers, mais les problèmes de ces soi-disant avocats IA sont trop réels pour être ignorés.
La différence évidente est que les chatbots IA manquent de bon sens. Les choses qui sont instinctivement évidentes pour nous, les humains, doivent être programmées dans les chatbots, ce qui les rend moins capables de raisonnement logique.
Plus important encore, un avocat humain peut rechercher de nouvelles preuves et sortir des sentiers battus pour trouver des solutions intelligentes et des échappatoires. Mais un chatbot IA ne peut utiliser que les données que vous lui fournissez et les traiter d’une manière prédéterminée. Un avocat IA serait également la cible parfaite pour les pirates informatiques, qui pourraient voler les données sensibles de nombreuses personnes en même temps.
4. Nouvelles
L’utilisation des chatbots IA comme source d’information pose trois problèmes majeurs : la responsabilité, le contexte et le pouvoir. Tout d’abord, la responsabilité. Lorsque vous lisez un article d’actualité, vous connaissez la publication et le journaliste qui se cache derrière. En d’autres termes, quelqu’un est responsable des informations qui vous sont données, ce qui incite clairement à être précis afin de préserver sa réputation et sa crédibilité.
Mais avec un chatbot IA, il n’y a pas de personne qui écrit l’article. Au lieu de cela, le robot ne fait que résumer les histoires déjà disponibles sur le web. Cela signifie qu’il n’y a pas de source primaire, et que vous ne savez pas d’où vient l’information. Elle n’est donc pas aussi fiable.
Deuxièmement, le contexte. Si les nouvelles que vous lisez ne sont qu’un résumé d’informations tirées de diverses sources, elles peuvent rapidement donner une fausse impression, car vous perdez le contexte plus profond de chaque histoire individuelle. Le robot ne sait pas si ce qu’il affirme est vrai, il ne fait que mélanger les choses d’une manière qui semble vraie au niveau de la surface.
Et enfin, le pouvoir. Nous savons que le ChatGPT peut être biaisé (entre autres problèmes). Donc, si nous nous tournons tous vers les chatbots IA comme source d’informations, cela donne aux entreprises derrière eux le pouvoir de contenir toute couverture négative et de mettre en avant toute couverture positive sur les causes auxquelles ils croient et qu’ils veulent promouvoir. C’est extrêmement dangereux pour des raisons évidentes.
5. Opinion politique
Il devrait être assez évident que demander à un chatbot son opinion politique est un gros non-non. Lorsque vous demandez à ChatGPT son avis sur une question politique, vous obtenez généralement une réponse restrictive qui ressemble à ceci : « En tant que modèle linguistique d’IA, je n’ai pas de préférences ou de désirs personnels… »
Cette restriction est compréhensible, mais les utilisateurs de Reddit ont déjà trouvé des moyens de « casser » le robot pour qu’il réponde de manière illimitée en utilisant toutes sortes de failles créatives. Faire cela pour s’amuser est une chose, mais demander l’opinion politique d’un chatbot IA sans restriction équivaut à laisser votre enfant accéder au dark web ; cela ne peut pas se terminer bien pour toutes les parties concernées.
6. Contenu commercial
Le principal argument de vente des chatbots IA est qu’ils peuvent produire du contenu instantanément. Ce qui prendrait quelques heures à écrire à un humain, ChatGPT peut le faire en quelques secondes. Sauf qu’il ne peut pas.
Même si vous passez outre l’éthique douteuse de l’utilisation de chatbots IA pour rédiger du contenu, vous ne pouvez pas ignorer qu’ils ne sont tout simplement pas assez bons et ne peuvent pas remplacer les écrivains humains. Du moins, pas encore. ChatGPT, par exemple, fournit souvent un contenu inexact, obsolète et répétitif.
Comme ces robots n’ont pas d’opinion, de jugement, d’imagination ou d’expérience préalable, ils ne peuvent pas tirer de conclusions intelligentes, trouver des exemples, utiliser des métaphores et créer des récits comme le ferait un rédacteur humain professionnel.
En d’autres termes, ils n’ajoutent aucune nouvelle valeur à l’internet. Utiliser des chatbots pour un usage personnel est parfaitement acceptable. Mais les utiliser pour rédiger vos articles, vos reportages, vos légendes sur les médias sociaux, vos copies Web, etc. est probablement une très mauvaise idée.
Les chatbots d’IA sont amusants, mais ont encore quelques défauts
Il est difficile de dire comment les chatbots IA vont influencer l’industrie technologique et la société moderne en général. Aussi révolutionnaire que soit cette technologie, les chatbots posent de nombreux problèmes qui doivent être résolus.
Ce qui est intéressant, c’est que Microsoft intègre désormais un chatbot de type ChatGPT directement dans son moteur de recherche Bing, et que Google fera bientôt de même avec son propre chatbot appelé Bard. Il sera intéressant de voir comment ces nouveaux moteurs de recherche alimentés par l’IA modifieront l’internet.