ChatGPT – un chatbot d’intelligence artificielle (IA) développé par OpenAI – est devenu un outil tout-en-un pour répondre à de nombreuses questions simples et difficiles, y compris les demandes de conseils médicaux. Il peut répondre à des questions médicales et réussir l’USMLE (United States Medical Licensing Exam), mais il ne peut pas remplacer un rendez-vous avec un médecin à l’hôpital.
À mesure que le ChatGPT progresse, il a le potentiel de transformer complètement le secteur des soins de santé. Lorsqu’il est intégré aux systèmes de santé, il peut améliorer l’accès des patients aux soins et accroître l’efficacité du travail des médecins. Cependant, étant donné qu’il est basé sur l’IA, plusieurs inquiétudes existent quant à ses dangers potentiels.
1. ChatGPT a des connaissances limitées
ChatGPT ne sait pas tout. Selon OpenAI, ChatGPT a des connaissances limitées, notamment en ce qui concerne ce qui s’est passé après septembre 2021.
ChatGPT n’a pas d’accès direct aux moteurs de recherche ou à l’internet. Il a été formé à l’aide d’une grande quantité de données textuelles provenant de nombreuses sources, y compris des livres, des sites web et d’autres textes. Il ne « connaît » pas les données qu’il fournit. Au lieu de cela, ChatGPT utilise le texte qu’il a lu pour créer des prédictions sur les mots à utiliser et dans quel ordre.
Par conséquent, il ne peut pas obtenir d’informations actualisées sur les développements dans les domaines médicaux. En effet, ChatGPT n’est pas au courant de la transplantation du cœur d’un porc à celui d’un homme, ni d’aucune autre avancée très récente dans le domaine de la science médicale.
2. ChatGPT peut produire des informations incorrectes
ChatGPT peut répondre aux questions que vous posez, mais les réponses peuvent être inexactes ou biaisées. Selon une étude de PLoS Digital Health, ChatGPT a obtenu une précision d’au moins 50 % pour tous les examens de l’USMLE. Bien qu’il ait dépassé le seuil de réussite de 60 % à certains égards, il existe toujours une possibilité d’erreur.
En outre, toutes les informations utilisées pour former ChatGPT ne sont pas authentiques. Les réponses basées sur des informations non vérifiées ou potentiellement biaisées peuvent être incorrectes ou obsolètes. Dans le monde de la médecine, des informations inexactes peuvent même coûter la vie à quelqu’un.
ChatGPT n’étant pas en mesure d’effectuer des recherches ou des vérifications indépendantes, il ne peut pas faire la différence entre les faits et la fiction. Des revues médicales respectées, dont le Journal of the American Medical Association (JAMA), ont établi des règles strictes selon lesquelles seuls des êtres humains peuvent rédiger des études scientifiques publiées dans la revue. Par conséquent, vous devez constamment vérifier les faits dans les réponses de ChatGPT.
3. ChatGPT ne vous examine pas physiquement
Les diagnostics médicaux ne dépendent pas uniquement des symptômes. L’examen physique du patient permet aux médecins de se faire une idée du profil et de la gravité d’une maladie. Pour diagnostiquer les patients, les médecins utilisent aujourd’hui à la fois les technologies médicales et les cinq sens.
ChatGPT ne peut pas effectuer un bilan de santé virtuel complet ni même un examen physique ; il ne peut que répondre aux symptômes que vous lui communiquez sous forme de messages. Pour la sécurité et les soins d’un patient, les erreurs dans l’examen physique – ou le fait d’ignorer complètement l’examen physique – peuvent être préjudiciables. Comme ChatGPT ne vous a pas examiné physiquement, il vous proposera un diagnostic erroné.
4. ChatGPT peut fournir de fausses informations
Une étude récente de l’école de médecine de l’université du Maryland sur les conseils de ChatGPT en matière de dépistage du cancer du sein a donné les résultats suivants :
« Nous avons constaté par expérience que ChatGPT invente parfois de faux articles de journaux ou de faux consortiums de santé pour étayer ses affirmations. » -Paul Yi M.D., professeur adjoint de radiologie diagnostique et de médecine nucléaire à l’UMSOM
Dans le cadre de notre test de ChatGPT, nous avons demandé une liste de livres non romanesques traitant du sujet du subconscient. ChatGPT a donc produit un faux livre intitulé « The Power of the Unconscious Mind » (Le pouvoir de l’inconscient) du Dr Gustav Kuhn.
Lorsque nous avons posé des questions sur ce livre, l’entreprise a répondu qu’il s’agissait d’un livre « hypothétique » qu’elle avait créé. ChatGPT ne vous dira pas si un article de journal ou un livre est faux si vous ne vous renseignez pas davantage.
5. ChatGPT n’est qu’un modèle linguistique d’IA
Les modèles de langage fonctionnent en mémorisant et en généralisant des textes plutôt qu’en examinant ou en étudiant l’état d’un patient. Bien qu’il génère des réponses qui correspondent aux normes humaines en termes de langage et de grammaire, ChatGPT présente encore un certain nombre de problèmes, à l’instar d’autres robots d’IA.
ChatGPT ne remplace pas votre médecin
Les médecins humains seront toujours nécessaires pour prendre les décisions finales en matière de soins de santé. ChatGPT conseille généralement de s’adresser à un professionnel de la santé agréé lorsque vous demandez un avis médical.
Les outils basés sur l’intelligence artificielle comme ChatGPT peuvent être utilisés pour planifier les rendez-vous chez le médecin, aider les patients à recevoir des traitements et tenir à jour les informations relatives à leur santé. Mais ils ne peuvent pas remplacer l’expertise et l’empathie d’un médecin.
Vous ne devriez pas vous fier à un outil basé sur l’IA pour diagnostiquer ou traiter votre santé, qu’elle soit physique ou mentale.
