Accueil Technologie
9 dangers de l’utilisation de l’IA comme thérapeute ou psychiatre gratuit

9 dangers de l’utilisation de l’IA comme thérapeute ou psychiatre gratuit

Compte tenu du coût élevé des psychothérapies, il est compréhensible que certains patients envisagent de consulter l’IA pour obtenir des conseils en matière de santé mentale. Les outils d’IA générative peuvent imiter la thérapie par la parole. Il suffit de structurer clairement les questions posées et de fournir des informations sur soi.


L’IA répond à des questions générales sur la santé mentale, mais son utilisation à des fins thérapeutiques pourrait faire plus de mal que de bien. Il est préférable de demander l’aide d’un professionnel. Voici les dangers qu’il y a à demander à des outils d’IA générative comme ChatGPT et Bing Chat de fournir une thérapie gratuite.

1. Les biais dans les données produisent des informations nuisibles

L’IA est foncièrement amorale. Les systèmes tirent des informations de leurs ensembles de données et produisent des réponses formulées aux données qu’ils reçoivent – ils se contentent de suivre les instructions. Malgré cette neutralité, les biais de l’IA existent toujours. Une mauvaise formation, des ensembles de données limités et des modèles de langage peu sophistiqués font que les chatbots présentent des réponses non vérifiées et stéréotypées.

Tous les outils d’IA générative sont susceptibles d’être biaisés. Même ChatGPT, l’un des chatbots les plus connus, produit parfois des résultats nuisibles. Vérifiez à deux fois tout ce que dit l’IA.

Lorsqu’il s’agit de traitements de santé mentale, évitez les sources douteuses. La gestion des troubles mentaux peut déjà être un défi. Le fait de devoir vérifier les faits vous soumet à un stress inutile. Concentrez-vous plutôt sur votre rétablissement.

2. L’IA a une connaissance limitée du monde réel

La plupart des outils génératifs ont une connaissance limitée du monde réel. Par exemple, OpenAI n’a entraîné ChatGPT qu’à partir d’informations datant de 2021. La capture d’écran ci-dessous d’une conversation montre ses difficultés à extraire des rapports récents sur les troubles de l’anxiété.

ChatGPT ne peut pas dire quel pourcentage de la population souffre d'anxiété

Compte tenu de ces contraintes, une confiance excessive dans les chatbots d’IA vous expose à des conseils obsolètes et inefficaces. Les innovations médicales sont fréquentes. Vous avez besoin de professionnels pour vous guider à travers les nouveaux programmes de traitement et les découvertes récentes.

De même, posez des questions sur les méthodes qui ont fait leurs preuves. Suivre aveuglément des pratiques controversées et sans fondement basées sur la médecine alternative peut aggraver votre état. Tenez-vous en aux options fondées sur des preuves.

3. Les restrictions de sécurité interdisent certains sujets

Les développeurs d’IA fixent des restrictions pendant la phase de formation. Les directives éthiques et morales empêchent les systèmes d’IA amoraux de présenter des données nuisibles. Sinon, les escrocs pourraient les exploiter à l’infini.

Bien que bénéfiques, les lignes directrices entravent également la fonctionnalité et la polyvalence. Prenons l’exemple de Bing AI. Ses restrictions rigides l’empêchent de discuter de sujets sensibles.

Cependant, vous devriez être libre de partager vos pensées négatives – elles sont une réalité pour beaucoup. Les réprimer ne peut qu’entraîner des complications supplémentaires. Seuls des plans de traitement guidés et fondés sur des preuves aideront les patients à surmonter les mécanismes d’adaptation malsains.

4. L’IA ne peut pas prescrire de médicaments

Seuls les psychiatres agréés prescrivent des médicaments. Les chatbots d’IA se contentent de fournir des informations de base sur les programmes de traitement que suivent les patients souffrant de troubles mentaux. Aucune application ne peut rédiger d’ordonnance. Même si vous prenez les mêmes médicaments depuis des années, vous aurez toujours besoin d’une ordonnance médicale.

Les chatbots ont des modèles de réponses pour ces questions. Bing Chat vous donne une explication détaillée des médicaments les plus courants pour la santé mentale.

Bing Chat explique les médicaments contre l'anxiété

Pendant ce temps, ChatGPT détourne le sujet vers les médecines alternatives. Il limite probablement les sorties pour éviter de dire quelque chose de nuisible ou de trompeur.

ChatGPT ne peut pas fournir de médicaments sur ordonnance

5. Les chatbots présentent des informations génériques

L’IA répond à des questions de connaissances générales sur la santé mentale. Vous pouvez les utiliser pour étudier les options de traitement de base, repérer les symptômes courants et rechercher des cas similaires. Une recherche appropriée vous aide à développer votre conscience de soi. Le rétablissement se fera plus facilement si vous comprenez votre état mental et les déclencheurs émotionnels.

Notez que l’IA produit des informations génériques. La conversation ci-dessous montre que ChatGPT présente un plan d’action raisonnable mais simpliste pour une personne souffrant de crises de panique.

ChatGPT donne des conseils génériques sur la crise de panique

Un conseiller professionnel ou un thérapeute irait plus loin que ce que suggère l’IA. Vous pouvez utiliser les résultats de l’IA comme point de départ pour mieux comprendre les revues universitaires et les documents de recherche, mais assurez-vous de faire des recherches plus approfondies ou de consulter un professionnel.

6. Les autodiagnostics sont rarement exacts

L’IA permet les autodiagnostics. Au lieu de payer pour une thérapie, les patients demandent à des chatbots d’imiter les professionnels de la santé mentale. C’est plus rapide et moins cher que de prendre rendez-vous pour une consultation.

Bien que pratique, les risques liés à l’autodiagnostic des maladies mentales dépassent de loin les avantages. L’IA ne tire des informations que de ses ensembles de données. Les chatbots ne peuvent ni analyser ni diagnostiquer votre état de santé, car ils ne disposent que d’informations limitées sur votre état de santé général.

La conversation ci-dessous montre ChatGPT en train d’évaluer un persona. Avec seulement des symptômes médicaux communs mentionnés dans l’invite, il a du mal à affiner son diagnostic.

ChatGPT ne peut pas déterminer votre maladie en se basant sur les symptômes

En règle générale, il faut éviter l’autodiagnostic. Le fait de suivre un mauvais plan de traitement ou de négliger des symptômes entraînera davantage de complications.

7. L’IA n’a pas accès à votre dossier médical

Les outils d’IA générative comme ChatGPT apprennent à partir des conversations. Ils utilisent la mémoire contextuelle pour se souvenir des détails que vous mentionnez, améliorant ainsi la précision et la pertinence des résultats.

Prenons l’exemple de la conversation ci-dessous. Le personnage de l’invite lutte contre l’endettement, c’est pourquoi ChatGPT a intégré la liberté financière dans ses conseils contre l’anxiété.

Partager ses problèmes financiers avec ChatGPT

Avec suffisamment de contexte, l’IA pourrait commencer à fournir des plans personnalisés. Le problème est que les outils d’IA générative ont des limites symboliques : ils ne se souviennent que d’une quantité finie de données.

ChatGPT s'attaque à la cause première de l'anxiété liée à la finance

Les limites exactes varient d’une plateforme à l’autre. Bing Chat démarre de nouvelles discussions après 20 tours, tandis que ChatGPT se souvient des 3 000 derniers mots des conversations. Quoi qu’il en soit, aucun des deux outils ne pourra prendre en charge l’ensemble de vos dossiers médicaux. Au mieux, les outils d’IA générative ne peuvent que rassembler des informations sélectionnées, telles que les diagnostics récents ou vos émotions actuelles.

8. Les machines ne peuvent pas faire preuve d’empathie

L’empathie joue un rôle essentiel dans la thérapie. Comprendre les objectifs, les besoins, le mode de vie, les conflits internes et les préférences du patient aide les professionnels à personnaliser les options de traitement. Il n’existe pas d’approche unique de la santé mentale.

Malheureusement, les machines sont dépourvues d’émotions. L’IA est loin d’avoir atteint la singularité, même si les modèles de langage ont considérablement progressé ces dernières années.

L’IA se contente d’imiter l’empathie. Lorsqu’elle parle de santé mentale, elle cite des ressources utiles, utilise un langage attentif et vous encourage à consulter des professionnels. Au début, ces conseils semblent agréables. Au fur et à mesure des conversations, vous remarquerez plusieurs conseils répétés et des réponses types.

Cette conversation montre que Bing Chat fait une réponse générique. Il aurait dû poser une question ouverte.

Bing Chat ne peut pas comprendre quelqu'un qui souffre de dépression

Quant à ChatGPT, il pose des questions ouvertes mais fournit des conseils simplistes que vous ne trouverez nulle part ailleurs en ligne.

ChatGPT donne des conseils sur la dépression et la gestion des dettes

9. L’IA ne suit pas vos progrès

La prise en charge des symptômes des maladies mentales implique un traitement et une observation à long terme. Il n’existe pas de remède miracle aux troubles de la santé mentale. Comme la plupart des patients, vous pouvez essayer plusieurs programmes. Leurs effets varient d’une personne à l’autre – s’engager inconsidérément dans des options génériques donne des résultats négligeables.

Nombreux sont ceux qui se sentent dépassés par le processus. C’est pourquoi il est préférable de s’adresser à des professionnels compétents et empathiques plutôt qu’à des modèles de langage avancés.

Recherchez des personnes qui vous soutiendront tout au long de votre parcours. Ils devraient suivre vos progrès, évaluer les plans de traitement qui fonctionnent, traiter les symptômes persistants et analyser les éléments déclencheurs de votre santé mentale.

Vous ne pouvez pas remplacer les consultations par des chatbots d’IA

N’utilisez les outils d’IA générative que pour un soutien de base. Posez des questions générales sur la santé mentale, étudiez les options thérapeutiques et recherchez les professionnels les plus réputés dans votre région. Ne vous attendez pas à ce qu’ils remplacent complètement les consultations.

De même, explorez d’autres plateformes pilotées par l’IA qui offrent un soutien en matière de santé mentale. Headspace propose des vidéos de méditation guidée, Amaha suit votre humeur et Rootd enseigne des exercices de respiration. Allez au-delà de ChatGPT et de Bing Chat lorsque vous recherchez des ressources en matière de santé mentale.

Leave your vote

0 0 votes
Évaluation de l'article
S’abonner
Notification pour
guest
0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires

Log In

Forgot password?

Don't have an account? Register

Forgot password?

Enter your account data and we will send you a link to reset your password.

Your password reset link appears to be invalid or expired.

Log in

Privacy Policy

Add to Collection

No Collections

Here you'll find all collections you've created before.

0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x