Le ChatGPT et d’autres technologies d’apprentissage des langues se sont révélés être des outils puissants, et ils commencent seulement à avoir un impact sur des domaines tels que les soins de santé. Cependant, il est essentiel de faire preuve de prudence lorsqu’il s’agit d’utiliser ces outils pour sa propre santé. Bien que leur potentiel soit prometteur, il est essentiel de comprendre les limites et les risques associés à ces technologies. Voici comment le ChatGPT et les systèmes d’IA générative similaires peuvent avoir un impact sur votre bien-être.
1. L’anxiété liée à l’IA
Bien que le terme « anxiété liée à l’IA » existe depuis quelques années déjà, selon The Journal of the Association for Information Science and Technology, la croissance rapide de l’IA continue d’inquiéter de nombreuses personnes. L’anxiété liée à l’IA, ou le malaise qui découle de cette technologie et de ses effets considérables, englobe toutes sortes d’inquiétudes, de l’automatisation de l’emploi à l’extinction de l’espèce humaine.
Heureusement, il existe des moyens de résister à l’anxiété liée à l’IA tout en suivant l’évolution rapide de cette technologie. Par exemple, s’informer sur les chatbots et intégrer un peu d’IA dans sa propre vie peut aider à dissiper une partie de son mystère, selon Everyday Health.
Pour de nombreuses personnes, le facteur inconnu fait partie de ce qui rend l’essor rapide de l’IA si inquiétant, c’est pourquoi se familiariser avec les bases est un point de départ intelligent. Bien que cela puisse sembler un peu contre-intuitif, jouer avec Bard ou ChatGPT peut aider à rendre les applications plus accessibles dans l’ensemble.
2. Des informations de santé inexactes
La manière autoritaire dont les modèles génératifs tels que ChatGPT répondent aux questions peut donner l’impression qu’ils savent tout. Cependant, il est important de prendre leurs réponses avec un grain de sel, en particulier lorsqu’il s’agit de questions relatives à la santé.
Bien que ChatGPT puisse fournir des informations fiables sur la santé dans certains cas, il est toujours possible que l’application ait des hallucinations et fournisse des conseils de santé inexacts. Il est probable que vous ne fassiez pas confiance aux résultats d’une recherche Google pour obtenir des données personnalisées et précises sur la santé, il est donc judicieux d’aborder la technologie de l’IA avec la même prudence.
Si vous avez des questions sérieuses sur votre santé, il est toujours préférable d’en parler à votre professionnel de santé. En outre, les professionnels de santé ont la possibilité de prendre en compte un large éventail de facteurs, notamment vos antécédents médicaux, vos symptômes et votre bien-être général. Les modèles d’IA ne peuvent pas aborder tous ces facteurs avec la même compréhension (du moins, pas encore tout à fait).
En fait, des applications comme ChatGPT répètent également ces informations lorsqu’on les leur demande, alors suivez son exemple et contactez votre médecin pour lui faire part de vos problèmes de santé. Même le meilleur modèle linguistique n’est pas en mesure de fournir des diagnostics personnalisés.
3. Augmentation des comportements d’addiction à la technologie
L’addiction à la technologie est déjà un sujet de préoccupation. En particulier, la dépendance aux médias sociaux et aux smartphones a été mise en évidence ces dernières années. Pour de nombreuses personnes, il est difficile de se passer de ces technologies qui créent des habitudes, et les internautes font officieusement état d’un sentiment de dépendance à l’égard de ChatGPT et d’autres applications d’IA similaires.
En fait, selon le Pew Research Center, les experts estiment que la technologie de l’IA accentuera les problèmes de dépendance numérique dans les années à venir. « La dépendance numérique, qui est déjà un problème pour de nombreuses personnes qui jouent à des jeux vidéo, regardent des vidéos sur TikTok ou YouTube, ou qui sont attentives à chaque tweet, pourrait devenir un problème encore plus important à mesure que ces canaux numériques et d’autres deviennent encore plus personnalisés et font appel aux instincts de base pour les yeux », a déclaré Gary Grossman, vice-président principal et responsable mondial du Centre d’excellence en IA chez Edelman, dans le rapport.
Bien que cette situation puisse sembler désastreuse, il existe des mesures à prendre pour réduire la dépendance à l’égard de l’utilisation d’Internet, de l’IA et de la technologie en général. Selon l’université Duke, faire des pauses fréquentes, passer son temps libre loin des écrans et simplement noter les raisons pour lesquelles on a tendance à passer du temps sur l’IA peut aider à freiner ces impulsions. Se déconnecter un peu est souvent une option saine.
4. Inquiétudes concernant la confidentialité des données de santé
Pour de nombreuses personnes, il est facile d’utiliser des ressources telles que ChatGPT pour des questions quotidiennes. La prochaine fois que vous voudrez en savoir plus sur un problème de santé particulier, par exemple, vous pourrez vous tourner vers ces chatbots pour obtenir des réponses rapides.
Bien qu’ils soient rapides et simples à utiliser, les outils de langage d’IA peuvent ne pas protéger les données de santé privées que vous saisissez, comme le prévient l’Organisation mondiale de la santé. Soyez prudent si vous souhaitez rédiger des questions sur des problèmes de santé sensibles ou privés.
Parler à votre prestataire de soins de santé reste un moyen plus fiable et plus sûr de répondre à vos préoccupations en matière de santé. En ce qui concerne les informations que vous préférez garder pour vous, évitez de les saisir dans une invite de l’IA.
5. Risque de harcèlement et de cyberintimidation
Malheureusement, les nouvelles technologies ont souvent le potentiel de causer du tort. À l’instar des trolls, les modèles de langage génératif de l’IA mal utilisés peuvent rapidement générer des commentaires nuisibles et harcelants, selon le Centre de recherche sur la cyberintimidation. Cela peut causer du stress et des dommages émotionnels à la personne ciblée.
Comme les modèles d’IA permettent d’automatiser ces messages cruels et de les générer à grande échelle, les individus peuvent être submergés par un nombre considérable de commentaires sur de nombreuses plateformes. Personne ne souhaite être confronté à ce type de contenu à chaque fois que l’on consulte les médias sociaux ou que l’on envoie un courriel.
Ce problème n’est (malheureusement) pas nouveau, et il existe donc déjà de nombreux moyens de se protéger contre la cyberintimidation. Selon le Cyberbullying Research Center, documenter les messages et demander de l’aide aux administrateurs de sites web ou à votre opérateur téléphonique sont d’excellentes premières étapes.
La plupart des sites de médias sociaux ont déjà mis en place des politiques pour traiter les messages odieux des cyberintimidateurs. Par exemple, voici comment signaler des messages gênants à Facebook, signaler des messages abusifs à Instagram et contacter l’équipe de modération de TikTok. Signalez les contenus, bloquez les utilisateurs gênants et ajustez les paramètres de confidentialité pour réduire les risques de cyberintimidation.
Aborder les informations de santé de l’IA avec discernement
Dans l’ensemble, la croissance des technologies d’apprentissage du langage par l’IA pourrait changer la façon dont de nombreuses personnes abordent les soins de santé. Toutefois, grâce aux ressources et aux conseils d’experts, vous pouvez utiliser les applications de manière responsable lorsqu’il s’agit de votre santé mentale et physique. Il s’agit notamment de gérer l’anxiété liée à l’IA et de vérifier les informations auprès des professionnels de la santé. Prenez ces mesures pour protéger votre santé et votre bien-être tout en explorant les nouvelles technologies de l’IA.