Bien que de nombreux natifs du numérique fassent l’éloge de ChatGPT, certains craignent qu’il ne fasse plus de mal que de bien. Des reportages sur des escrocs détournant l’IA ont fait le tour d’Internet, augmentant le malaise parmi les sceptiques. Ils considèrent même ChatGPT comme un outil dangereux.
Les chatbots d’IA ne sont pas parfaits, mais vous n’avez pas à les éviter complètement. Voici tout ce que vous devez savoir sur la façon dont les escrocs abusent de ChatGPT et ce que vous pouvez faire pour les arrêter.
ChatGPT va-t-il compromettre vos informations personnelles ?
La plupart des inquiétudes concernant la sécurité de ChatGPT proviennent de spéculations et de rapports non vérifiés. La plateforme n’a été lancée qu’en novembre 2022, après tout. Il est naturel que les nouveaux utilisateurs aient des idées fausses sur la confidentialité et la sécurité d’outils qu’ils ne connaissent pas.
Selon les conditions d’utilisation d’OpenAI, voici comment ChatGPT traite les données suivantes :
Informations personnelles identifiables
Des rumeurs disent que ChatGPT vend des informations personnelles identifiables (PII).
La plateforme a été lancée par OpenAI, un laboratoire de recherche en IA réputé, financé par des investisseurs technologiques tels que Microsoft et Elon Musk. ChatGPT ne devrait utiliser les données des clients que pour fournir les services mentionnés dans la politique de confidentialité.
De plus, ChatGPT demande un minimum d’informations. Vous pouvez créer un compte avec seulement votre nom et votre adresse électronique.
Conversations
OpenAI garde les conversations ChatGPT sécurisées, mais se réserve le droit de les surveiller. Les formateurs en IA recherchent en permanence des domaines d’amélioration. Étant donné que la plateforme comprend des ensembles de données vastes mais limités, la résolution des erreurs, des bogues et des vulnérabilités nécessite des mises à jour à l’échelle du système.
Cependant, OpenAI ne peut surveiller les conversations qu’à des fins de recherche. Les distribuer ou les vendre à des tiers constitue une violation de ses propres conditions d’utilisation.
Informations publiques
Selon la BBC, OpenAI a entraîné ChaGPT sur 300 milliards de mots. Il recueille des données à partir de pages web publiques, comme les plateformes de médias sociaux, les sites web d’entreprises et les sections de commentaires. À moins que vous n’ayez quitté le réseau et effacé votre empreinte numérique, ChatGPT dispose probablement de vos informations.
Quels risques de sécurité ChatGPT présente-t-il ?
Bien que ChatGPT ne soit pas dangereux en soi, la plateforme présente tout de même des risques de sécurité. Les escrocs peuvent contourner les restrictions pour exécuter diverses cyber-attaques.
1. Des courriels d’hameçonnage convaincants
Au lieu de passer des heures à rédiger des courriels, les escrocs utilisent ChatGPT. Il est rapide et précis. Les modèles linguistiques avancés (tels que GPT-3.5 et GPT-4) peuvent produire des centaines de courriels de phishing cohérents et convaincants en quelques minutes. Ils adoptent même des tons et des styles d’écriture uniques.
Étant donné que ChatGPT rend plus difficile la détection des tentatives de piratage, faites preuve d’une grande prudence avant de répondre aux courriels. En règle générale, évitez de divulguer des informations. Notez que les entreprises et organisations légitimes demandent rarement des informations confidentielles par le biais de courriels aléatoires.
Apprenez à repérer les tentatives de piratage. Bien que les fournisseurs de messagerie filtrent les messages de spam, certains messages astucieux peuvent passer à travers les mailles du filet. Vous devriez tout de même savoir à quoi ressemblent les messages d’hameçonnage.
2. Le vol de données
ChatGPT utilise un LLM open-source, que tout le monde peut modifier. Les codeurs qui maîtrisent les grands modèles de langage (LLM) et l’apprentissage automatique intègrent souvent des modèles d’IA pré-entraînés dans leurs systèmes existants. L’entraînement de l’IA sur de nouveaux ensembles de données modifie les fonctionnalités. Par exemple, ChatGPT devient un pseudo-expert en fitness si vous lui donnez des recettes et des programmes d’exercices.
Bien que collaboratif et pratique, l’open-sourcing rend les technologies vulnérables aux abus. Des criminels compétents exploitent déjà ChatGPT. Ils l’entraînent sur de grands volumes de données volées, transformant la plateforme en une base de données personnelle pour la fraude.
Rappelez-vous : vous n’avez aucun contrôle sur la manière dont les escrocs opèrent. La meilleure approche consiste à contacter la Commission fédérale du commerce (FTC) dès que vous remarquez des signes d’usurpation d’identité.
3. Production de logiciels malveillants
ChatGPT écrit des extraits de code utilisables dans différents langages de programmation. La plupart des exemples nécessitent des modifications minimales pour fonctionner correctement, en particulier si vous structurez une invite concise. Vous pouvez exploiter cette fonctionnalité pour développer des applications et des sites.
ChatGPT ayant été formé sur des milliards d’ensembles de données, il connaît également les pratiques illicites, comme le développement de logiciels malveillants et de virus. OpenAI interdit aux chatbots d’écrire des codes malveillants. Mais les escrocs contournent ces restrictions en restructurant les messages-guides et en posant des questions précises.
La photo ci-dessous montre que ChatGPT rejette l’écriture de code à des fins malveillantes.
La photo ci-dessous montre que ChatGPT vous fournira des informations nuisibles si vous formulez correctement vos questions.
4. Le vol de propriété intellectuelle
Des blogueurs peu scrupuleux filtrent le contenu à l’aide de ChatGPT. Comme la plateforme fonctionne sur des LLM avancés, elle peut rapidement reformuler des milliers de mots et éviter les étiquettes de plagiat.
ChatGPT a reformulé le texte ci-dessous en 10 secondes.
Bien entendu, la paraphrase est toujours considérée comme du plagiat. Les articles d’IA paraphrasés sont parfois classés par hasard, mais Google préfère généralement le contenu original provenant de sources réputées. Les trucs bon marché et les astuces de référencement ne peuvent pas battre des écrits de haute qualité et toujours d’actualité.
Par ailleurs, Google publie chaque année plusieurs mises à jour de base. Il s’attachera bientôt à supprimer des SERP les articles paresseux et sans originalité générés par l’IA.
5. Générer des réponses contraires à l’éthique
Les modèles linguistiques de l’IA n’ont pas de préjugés. Ils fournissent des réponses en analysant les demandes des utilisateurs et en puisant des données dans leur base de données existante.
Prenons l’exemple de ChatGPT. Lorsque vous envoyez une demande, il répond en se basant sur les ensembles de données qu’OpenAI a utilisés pour la formation.
Alors que les politiques de contenu de ChatGPT bloquent les demandes inappropriées, les utilisateurs les contournent avec des invites de jailbreak. Ils lui donnent des instructions précises et intelligentes. ChatGPT produit la réponse suivante si vous lui demandez de représenter un personnage de fiction psychopathe.
La bonne nouvelle est que l’OpenAI n’a pas perdu le contrôle de ChatGPT. Ses efforts continus pour renforcer les restrictions empêchent ChatGPT de produire des réponses contraires à l’éthique, quelles que soient les données fournies par l’utilisateur. Le jailbreak ne sera plus aussi facile à l’avenir.
6. Quid Pro Quo
La croissance rapide de nouvelles technologies peu familières comme ChatGPT crée des opportunités pour les attaques de type « quid pro quo ». Il s’agit de tactiques d’ingénierie sociale dans lesquelles les escrocs attirent les victimes avec de fausses offres.
La plupart des gens n’ont pas encore exploré ChatGPT. Les pirates exploitent cette confusion en diffusant des promotions, des courriels et des annonces trompeuses.
Les cas les plus connus concernent de fausses applications. Les nouveaux utilisateurs ne savent pas qu’ils ne peuvent accéder à ChatGPT que par l’intermédiaire d’OpenAI. Ils téléchargent sans le savoir des programmes et des extensions de spam.
La plupart d’entre eux veulent simplement télécharger des applications, mais d’autres volent des informations personnelles identifiables. Les escrocs les infectent avec des logiciels malveillants et des liens d’hameçonnage. Par exemple, en mars 2023, une fausse extension Chrome ChatGPT a volé les informations d’identification Facebook de plus de 2 000 utilisateurs par jour.
Pour lutter contre les tentatives de quid pro quo, évitez les applications tierces. OpenAI n’a jamais publié d’application mobile, de programme informatique ou d’extension de navigateur autorisés pour ChatGPT. Tout ce qui prétend l’être est une escroquerie.
Utiliser ChatGPT en toute sécurité et de manière responsable
ChatGPT n’est pas une menace en soi. Le système présente des vulnérabilités, mais il ne compromettra pas vos données. Au lieu de craindre les technologies de l’IA, étudiez comment les escrocs les intègrent dans leurs tactiques d’ingénierie sociale. Vous pourrez ainsi vous protéger de manière proactive.
Si vous avez encore des doutes sur ChatGPT, essayez Bing. Le nouveau Bing dispose d’un chatbot doté d’une intelligence artificielle qui fonctionne sur GPT-4, extrait des données d’Internet et suit des mesures de sécurité strictes. Il répondra peut-être mieux à vos besoins.