Malgré ses capacités impressionnantes, plusieurs grandes entreprises ont interdit à leurs employés d’utiliser ChatGPT.
En mai 2023, Samsung a interdit l’utilisation de ChatGPT et d’autres outils d’IA générative. Puis, en juin 2023, la Commonwealth Bank of Australia a fait de même, ainsi que des entreprises comme Amazon, Apple et JPMorgan Chase & ; Co. Certains hôpitaux, cabinets d’avocats et agences gouvernementales ont également interdit à leurs employés d’utiliser ChatGPT.
Alors, pourquoi de plus en plus d’entreprises interdisent-elles ChatGPT ? Voici cinq raisons principales.
1. Fuites de données
Le ChatGPT a besoin d’une grande quantité de données pour être formé et fonctionner efficacement. Le chatbot a été formé en utilisant des quantités massives de données provenant de l’internet, et il continue d’être formé.
Selon la page d’aide d’OpenAI, chaque donnée, y compris les détails confidentiels des clients, les secrets commerciaux et les informations commerciales sensibles que vous transmettez au chatbot, est susceptible d’être examinée par ses formateurs, qui peuvent utiliser vos données pour améliorer leurs systèmes.
De nombreuses entreprises sont soumises à des réglementations strictes en matière de protection des données. Elles sont donc prudentes lorsqu’il s’agit de partager des données personnelles avec des entités externes, car cela augmente les risques de fuites de données.
En outre, OpenAI n’offre pas de garantie infaillible en matière de protection des données et de confidentialité. En mars 2023, OpenAI a confirmé l’existence d’un bogue permettant à certains utilisateurs de voir les titres des conversations dans l’historique d’autres utilisateurs actifs. Bien que ce bogue ait été corrigé et qu’OpenAI ait lancé un programme de récompense des bogues, l’entreprise ne garantit pas la sécurité et la confidentialité des données des utilisateurs.
De nombreuses organisations choisissent de restreindre l’utilisation de ChatGPT par leurs employés afin d’éviter les fuites de données, qui peuvent nuire à leur réputation, entraîner des pertes financières et mettre en danger leurs clients et leurs employés.
2. Risques liés à la cybersécurité
Bien qu’il ne soit pas certain que ChatGPT soit réellement sujet à des risques de cybersécurité, il est possible que son déploiement au sein d’une organisation introduise des vulnérabilités potentielles que les cyberattaquants peuvent exploiter.
Si une entreprise intègre ChatGPT et qu’il y a des faiblesses dans le système de sécurité du chatbot, les attaquants peuvent être en mesure d’exploiter ces vulnérabilités et d’injecter des codes malveillants. En outre, la capacité de ChatGPT à générer des réponses semblables à celles d’un être humain est une aubaine pour les auteurs de phishing qui peuvent prendre le contrôle d’un compte ou se faire passer pour des entités légitimes afin de tromper les employés d’une entreprise et les amener à partager des informations sensibles.
3. Création de Chatbots personnalisés
Malgré ses caractéristiques innovantes, le ChatGPT peut produire des informations fausses et trompeuses. C’est pourquoi de nombreuses entreprises ont créé des chatbots d’IA à des fins professionnelles. Par exemple, la Commonwealth Bank of Australia a demandé à ses employés d’utiliser Gen.ai à la place, un chatbot d’intelligence artificielle (IA) qui utilise les informations de CommBank pour fournir des réponses.
Des entreprises comme Samsung et Amazon ont développé des modèles avancés de langage naturel, de sorte que les entreprises peuvent facilement créer et déployer des chatbots personnalisés basés sur des transcriptions existantes. Grâce à ces chatbots internes, vous pouvez éviter les conséquences juridiques et les atteintes à la réputation liées à une mauvaise manipulation des données.
4. Absence de réglementation
Dans les secteurs où les entreprises sont soumises à des protocoles réglementaires et à des sanctions, l’absence d’orientation réglementaire de ChatGPT est un signal d’alarme. Sans conditions réglementaires précises régissant l’utilisation de ChatGPT, les entreprises peuvent être confrontées à de graves conséquences juridiques lorsqu’elles utilisent le chatbot IA dans le cadre de leurs activités.
En outre, l’absence de réglementation peut diminuer la responsabilité et la transparence d’une entreprise. La plupart des entreprises ne savent pas comment expliquer à leurs clients les processus décisionnels et les mesures de sécurité du modèle linguistique d’IA.
Les entreprises limitent le ChatGPT, craignant des violations potentielles des lois sur la protection de la vie privée et des réglementations spécifiques à l’industrie.
5. Utilisation irresponsable par les employés
Dans de nombreuses entreprises, certains employés s’appuient uniquement sur les réponses de ChatGPT pour générer du contenu et accomplir leurs tâches. Cela engendre de la paresse dans l’environnement de travail et freine la créativité et l’innovation.
La dépendance à l’égard de l’IA peut nuire à la capacité de penser de manière critique. Cela peut également nuire à la crédibilité d’une entreprise, car ChatGPT fournit souvent des données inexactes et peu fiables.
Bien que ChatGPT soit un outil puissant, son utilisation pour répondre à des requêtes complexes nécessitant une expertise spécifique à un domaine peut nuire au fonctionnement et à l’efficacité d’une entreprise. Certains employés peuvent ne pas se souvenir de vérifier les faits et les réponses fournies par le chatbot IA, considérant les réponses comme une solution unique.
Pour atténuer les problèmes de ce type, les entreprises interdisent l’utilisation du chatbot afin que les employés puissent se concentrer sur leurs tâches et fournir aux utilisateurs des solutions exemptes d’erreurs.
Interdictions de ChatGPT : Mieux vaut prévenir que guérir
Les entreprises qui interdisent ChatGPT mettent en évidence les risques de cybersécurité, les normes éthiques des employés et les problèmes de conformité réglementaire. L’incapacité de ChatGPT à résoudre ces problèmes tout en proposant des solutions sectorielles témoigne de ses limites et de la nécessité d’évoluer encore.
En attendant, les entreprises se tournent vers d’autres chatbots ou interdisent simplement à leurs employés d’utiliser ChatGPT afin d’éviter les violations de données potentielles et les protocoles de sécurité et de réglementation peu fiables associés au chatbot.