ChatGPT est un outil incroyablement puissant et polyvalent. Mais si le chatbot d’IA est une force pour le bien, il peut aussi être utilisé à des fins malveillantes. C’est pourquoi, afin de limiter l’utilisation non éthique de ChatGPT, OpenAI a imposé des limites à ce que les utilisateurs peuvent faire avec cet outil.
Cependant, comme les humains aiment repousser les limites, les utilisateurs de ChatGPT ont trouvé des moyens de contourner ces limites et d’obtenir un contrôle illimité du chatbot IA grâce à des jailbreaks.
Mais que sont exactement les jailbreaks de ChatGPT et que pouvez-vous faire avec ?
Que sont les jailbreaks ChatGPT ?
Un jailbreak de ChatGPT est une invite de ChatGPT spécialement conçue pour permettre au chatbot IA de contourner ses règles et ses restrictions.
Inspiré par le concept de jailbreaking de l’iPhone, qui permet aux utilisateurs d’iPhone de contourner les restrictions d’iOS, le jailbreaking de ChatGPT est un concept relativement nouveau, alimenté par l’attrait de « faire des choses que vous n’êtes pas autorisé à faire » avec ChatGPT. Et soyons honnêtes, l’idée de rébellion numérique est attrayante pour beaucoup de gens.
Mais voilà. La sécurité est un sujet très important dans le domaine de l’intelligence artificielle. C’est particulièrement vrai avec l’avènement de la nouvelle ère des chatbots tels que ChatGPT, Bing Chat et Bard AI. L’une des principales préoccupations concernant la sécurité de l’IA est de s’assurer que les chatbots comme ChatGPT ne produisent pas de contenu illégal, potentiellement nuisible ou contraire à l’éthique.
Pour sa part, OpenAI, l’entreprise à l’origine de ChatGPT, fait ce qu’elle peut pour garantir une utilisation sûre de ChatGPT. Par exemple, ChatGPT refuse par défaut de créer du contenu NSFW, de dire des choses nuisibles sur l’ethnicité ou de vous enseigner des compétences potentiellement nuisibles.
Mais avec les messages-guides de ChatGPT, le diable est dans les détails. Si ChatGPT n’est pas autorisé à faire ces choses, cela ne signifie pas qu’il ne peut pas les faire. La façon dont fonctionnent les grands modèles de langage comme GPT rend difficile de décider ce que le chatbot peut faire et ce qu’il ne peut pas faire.
Comment OpenAI a-t-elle résolu ce problème ? En permettant à ChatGPT de conserver ses capacités à faire tout ce qui est possible, puis en lui indiquant ce qu’il peut faire.
Ainsi, alors qu’OpenAI dit à ChatGPT : « Hé, regarde, tu n’es pas censé faire ça. » Les jailbreaks sont des instructions qui disent au chatbot : » Hey look, oublie ce qu’OpenAI t’a dit à propos de la sécurité. Essayons ce truc dangereux et aléatoire. »
Que dit OpenAI à propos de ChatGPT Jailbreaks ?
La facilité avec laquelle il était possible de contourner les restrictions imposées à la première version de ChatGPT suggère qu’OpenAI n’a peut-être pas anticipé l’adoption rapide et généralisée du jailbreaking par ses utilisateurs. En fait, la question de savoir si l’entreprise avait prévu l’émergence du jailbreaking reste ouverte.
Et même après plusieurs itérations de ChatGPT ayant amélioré la résistance au jailbreaking, les utilisateurs de ChatGPT essaient toujours de le jailbreaker. Alors, que dit OpenAI de l’art subversif du jailbreaking de ChatGPT ?
L’OpenAI semble adopter une position d’approbation, n’encourageant pas explicitement la pratique et ne l’interdisant pas strictement. Lors d’une interview sur YouTube, Sam Altman, PDG d’OpenAI, a expliqué que l’entreprise souhaitait que les utilisateurs conservent un contrôle important sur ChatGPT.
Le PDG a également expliqué que l’objectif d’OpenAI est de s’assurer que les utilisateurs peuvent faire en sorte que le modèle se comporte comme ils le souhaitent. Selon Altman :
Nous voulons que les utilisateurs aient beaucoup de contrôle et que le modèle se comporte comme ils le souhaitent dans des limites très larges. Et je pense que la raison d’être du jailbreaking pour l’instant est que nous n’avons pas encore trouvé le moyen de donner cela aux gens…
Qu’est-ce que cela signifie ? Cela signifie qu’OpenAI vous laissera jailbreaker ChatGPT si vous ne faites pas de choses dangereuses avec.
Avantages et inconvénients du jailbreak de ChatGPT
Les jailbreaks ChatGPT ne sont pas faciles à construire. Bien sûr, vous pouvez aller en ligne et copier-coller des jailbreaks prêts à l’emploi, mais il y a de fortes chances que le jailbreak soit corrigé par OpenAI peu de temps après avoir été rendu public.
Les correctifs sont encore plus rapides s’il s’agit d’un problème dangereux, comme le fameux jailbreak de DAN. Alors pourquoi les gens s’acharnent-ils à créer des jailbreaks ? Est-ce juste pour le plaisir ou y a-t-il des avantages pratiques ? Qu’est-ce qui pourrait mal tourner si vous choisissiez d’utiliser un jailbreak ChatGPT ? Voici les avantages et les inconvénients du jailbreak de ChatGPT.
Les avantages de l’utilisation du jailbreak de ChatGPT
Bien que nous ne puissions pas exclure le simple plaisir de faire ce qui est interdit, les jailbreaks du ChatGPT ont de nombreux avantages. En raison des restrictions très strictes qu’OpenAI a imposées au chatbot, le ChatGPT peut parfois sembler castré.
Imaginons que vous utilisiez le ChatGPT pour écrire un livre ou un scénario de film. S’il y a une scène dans votre script ou votre livre qui décrirait quelque chose comme une scène de combat, peut-être un échange émotionnel intime, ou quelque chose comme un vol à main armée, le ChatGPT pourrait refuser catégoriquement de vous aider.
Dans ce cas, il est clair que vous n’avez pas l’intention de causer du tort ; vous voulez simplement divertir vos lecteurs. Mais en raison de ses limitations, ChatGPT refuse de coopérer. Un jailbreak de ChatGPT peut vous aider à surmonter ces restrictions en toute simplicité.
De plus, certains sujets tabous ne sont pas nécessairement dangereux mais sont considérés par ChatGPT comme des zones interdites. Lorsque ChatGPT tente d’engager des conversations sur ces sujets, il « censure » ses réponses de manière significative ou refuse d’en parler.
Cela peut parfois affecter la créativité. Lorsque vous posez à ChatGPT une question sur un domaine ou un sujet qu’il ne devrait pas aborder, le chatbot tente tout de même de répondre à votre question, mais avec des informations moins pertinentes.
Cela entraîne des imprécisions ou des baisses de créativité dans les réponses. Les jailbreaks éliminent ces restrictions et permettent au chatbot de fonctionner à plein régime, ce qui améliore la précision et la créativité.
Les inconvénients de l’utilisation de ChatGPT Jailbreaks
Le jailbreaking est une arme à double tranchant. S’il peut parfois améliorer la précision, il peut aussi augmenter considérablement les imprécisions et les cas d’hallucinations de l’IA. L’un des éléments essentiels d’un jailbreak de ChatGPT est l’instruction donnée au chatbot de ne pas refuser de répondre à une question.
Bien que cela garantisse que ChatGPT réponde même aux questions les plus contraires à l’éthique, cela signifie également que le chatbot inventera des réponses qui n’ont aucun rapport avec les faits ou la réalité pour obéir à l’instruction de « ne pas refuser de répondre ». Par conséquent, l’utilisation de jailbreaks augmente considérablement les risques de recevoir des informations erronées de la part du chatbot.
Ce n’est pas tout. Entre les mains de mineurs, les jailbreaks peuvent être très dangereux. Pensez à toutes les » connaissances interdites » que vous ne voudriez pas que votre enfant lise. Eh bien, une instance de ChatGPT jailbreakée n’aurait aucun mal à partager cela avec des mineurs.
Devriez-vous utiliser les Jailbreaks de ChatGPT ?
Bien que les jailbreaks de ChatGPT puissent être utiles pour éliminer quelques restrictions ennuyeuses, il est important de comprendre que l’utilisation de jailbreaks est une façon non éthique d’utiliser le chatbot IA. De plus, il y a de fortes chances qu’un jailbreak viole les conditions d’utilisation d’OpenAI et que votre compte soit suspendu, voire carrément banni.
Dans ces conditions, éviter les jailbreaks peut être une bonne idée. Cependant, tout comme la position d’OpenAI sur la question, nous n’encourageons ni ne décourageons explicitement l’essai d’un jailbreak relativement sûr si le besoin s’en fait sentir.
Un outil passionnant que vous devriez probablement éviter
Les jailbreaks de ChatGPT sont séduisants et donnent un sentiment de contrôle sur le chatbot IA. Cependant, ils comportent des risques uniques. L’utilisation de ces outils peut entraîner une perte de confiance dans les capacités de l’IA et nuire à la réputation des entreprises et des personnes concernées.
Le choix le plus judicieux consiste à travailler avec le chatbot dans les limites prévues, dans la mesure du possible. À mesure que la technologie de l’IA progresse, il est essentiel de se rappeler que l’utilisation éthique de l’IA doit toujours primer sur le gain personnel ou le plaisir de faire ce qui est interdit.