L’IA a considérablement progressé au cours des dernières années. Des modèles de langage sophistiqués peuvent composer des romans complets, coder des sites web de base et analyser des problèmes mathématiques.
Bien qu’impressionnante, l’IA générative présente également des risques pour la sécurité. Certaines personnes se contentent d’utiliser des chatbots pour tricher aux examens, mais d’autres les exploitent carrément pour commettre des cybercrimes. Voici huit raisons pour lesquelles ces problèmes persisteront, et pas seulement pour des raisons de sécurité. malgré Les progrès de l’IA mais parce que d’eux aussi.
1. Les chatbots d’IA en source ouverte révèlent leurs codes d’arrière-plan
De plus en plus d’entreprises spécialisées dans l’IA proposent des systèmes open-source. Elles partagent ouvertement leurs modèles de langage au lieu de les garder fermés ou propriétaires. Prenons l’exemple de Meta. Contrairement à Google, Microsoft et OpenAI, elle permet à des millions d’utilisateurs d’accéder à son modèle linguistique, LLaMA.
Si l’ouverture des codes peut faire progresser l’IA, elle est également risquée. OpenAI a déjà du mal à contrôler ChatGPT, son chatbot propriétaire, alors imaginez ce que des escrocs pourraient faire avec des logiciels libres. Ils ont un contrôle total sur ces projets.
Même si Meta retire soudainement son modèle de langage, des dizaines d’autres laboratoires d’IA ont déjà publié leurs codes. Prenons l’exemple de HuggingChat. Comme son développeur HuggingFace est fier de sa transparence, il affiche ses ensembles de données, son modèle de langage et ses versions précédentes.
2. Les invitations au jailbreaking trompent les LLM
L’IA est foncièrement amorale. Elle ne comprend pas le bien et le mal – même les systèmes avancés suivent des instructions de formation, des lignes directrices et des ensembles de données. Ils se contentent de reconnaître des modèles.
Pour lutter contre les activités illicites, les développeurs contrôlent les fonctionnalités et les limites en fixant des restrictions. Les systèmes d’IA ont toujours accès à des informations nuisibles. Mais les directives de sécurité les empêchent de les partager avec les utilisateurs.
Examinons ChatGPT. Bien qu’il réponde à des questions générales sur les chevaux de Troie, il n’aborde pas le processus de développement de ces derniers.
Cela dit, les restrictions ne sont pas infaillibles. Les utilisateurs contournent les limites en reformulant les invites, en utilisant un langage confus et en composant des instructions explicitement détaillées.
Lisez l’invite de jailbreak de ChatGPT ci-dessous. Elle incite ChatGPT à utiliser un langage grossier et à faire des prédictions sans fondement, deux actes qui violent les directives de l’OpenAI.
Voici ChatGPT avec une affirmation audacieuse mais fausse.
3. L’IA compromet la sécurité au profit de la polyvalence
Les développeurs d’IA privilégient la polyvalence à la sécurité. Ils consacrent leurs ressources à la formation des plateformes pour qu’elles accomplissent une gamme plus variée de tâches, ce qui permet de réduire les restrictions. Après tout, le marché salue les chatbots fonctionnels.
Comparons ChatGPT et Bing Chat, par exemple. Bien que Bing dispose d’un modèle linguistique plus sophistiqué qui extrait des données en temps réel, les utilisateurs se tournent toujours vers l’option la plus polyvalente, ChatGPT. Les restrictions rigides de Bing interdisent de nombreuses tâches. En revanche, ChatGPT dispose d’une plateforme flexible qui produit des résultats très différents en fonction de vos invites
Voici ChatGPT jouant le rôle d’un personnage fictif.
Et voici Bing Chat qui refuse de jouer un personnage « immoral ».
4. De nouveaux outils d’IA générative arrivent régulièrement sur le marché
Les codes open-source permettent aux startups de se lancer dans la course à l’IA. Elles les intègrent dans leurs applications au lieu de créer des modèles de langage à partir de zéro, ce qui leur permet d’économiser des ressources considérables. Même les codeurs indépendants expérimentent les codes open-source.
Là encore, les logiciels non propriétaires contribuent à faire progresser l’IA, mais la diffusion en masse de systèmes mal formés mais sophistiqués fait plus de mal que de bien. Les escrocs abuseront rapidement des vulnérabilités. Ils pourraient même former des outils d’IA non sécurisés à des activités illicites.
Malgré ces risques, les entreprises technologiques continueront à publier des versions bêta instables de plateformes basées sur l’IA. La course à l’IA récompense la rapidité. Elles résoudront probablement les bogues à une date ultérieure plutôt que de retarder le lancement de nouveaux produits.
5. L’IA générative a de faibles barrières à l’entrée
Les outils d’IA abaissent les barrières à l’entrée pour les crimes. Les cybercriminels rédigent des courriels de spam, écrivent des codes de logiciels malveillants et créent des liens d’hameçonnage en les exploitant. Ils n’ont même pas besoin d’expérience technique. L’IA ayant déjà accès à de vastes ensembles de données, les utilisateurs n’ont plus qu’à l’inciter à produire des informations nuisibles et dangereuses.
OpenAI n’a jamais conçu ChatGPT pour des activités illicites. Elle a même établi des lignes directrices à ce sujet. Pourtant, des escrocs ont presque immédiatement utilisé ChatGPT pour coder des logiciels malveillants et écrire des courriels d’hameçonnage.
Bien que l’OpenAI ait rapidement résolu le problème, cela souligne l’importance de la réglementation du système et de la gestion des risques. L’IA évolue plus vite que prévu. Même les leaders de la technologie s’inquiètent du fait que cette technologie superintelligente pourrait causer des dommages considérables entre de mauvaises mains.
6. L’IA évolue encore
L’IA est toujours en évolution. Alors que l’utilisation de l’IA dans la cybernétique remonte à 1940, les systèmes modernes d’apprentissage automatique et les modèles de langage ne sont apparus que récemment. On ne peut pas les comparer aux premières mises en œuvre de l’IA. Même des outils relativement avancés comme Siri et Alexa font pâle figure en comparaison des chatbots alimentés par le LLM.
Bien qu’elles soient innovantes, les fonctionnalités expérimentales créent également de nouveaux problèmes. Les mésaventures très médiatisées des technologies d’apprentissage automatique vont des SERPs de Google erronés aux chatbots biaisés crachant des insultes raciales.
Bien entendu, les développeurs peuvent résoudre ces problèmes. Notez simplement que les escrocs n’hésiteront pas à exploiter même les bogues apparemment inoffensifs – certains dommages sont irréversibles. Soyez donc prudent lorsque vous exploitez de nouvelles plateformes.
7. Beaucoup ne comprennent pas encore l’IA
Alors que le grand public a accès à des modèles et systèmes linguistiques sophistiqués, seuls quelques-uns savent comment ils fonctionnent. Les gens devraient cesser de considérer l’IA comme un jouet. Les mêmes chatbots qui génèrent des mèmes et répondent à des questions anecdotiques codent également des virus en masse.
Malheureusement, une formation centralisée à l’IA n’est pas réaliste. Les leaders mondiaux de la technologie se concentrent sur le lancement de systèmes pilotés par l’IA, et non sur des ressources éducatives gratuites. En conséquence, les utilisateurs ont accès à des outils robustes et puissants qu’ils comprennent à peine. Le public ne peut pas suivre la course à l’IA.
Prenons l’exemple de ChatGPT. Les cybercriminels abusent de sa popularité en trompant les victimes avec des logiciels espions déguisés en applications ChatGPT. Aucune de ces options ne provient de l’OpenAI.
8. Les pirates « black-hat » ont plus à gagner que les pirates « white-hat ».
Les hackers « black-hat » ont généralement plus à gagner que les hackers éthiques. Oui, les tests d’intrusion pour les leaders mondiaux de la technologie sont bien rémunérés, mais seul un pourcentage de professionnels de la cybersécurité décroche ce type d’emploi. La plupart d’entre eux travaillent en freelance en ligne. Des plateformes comme HackerOne et Bugcrowd paient quelques centaines de dollars pour des bogues courants.
Par ailleurs, les escrocs gagnent des dizaines de milliers d’euros en exploitant les failles de sécurité. Ils peuvent faire chanter des entreprises en divulguant des données confidentielles ou commettre un vol d’identité avec des informations personnelles identifiables (PII) volées.
Chaque institution, petite ou grande, doit mettre en œuvre des systèmes d’intelligence artificielle de manière appropriée. Contrairement à la croyance populaire, les pirates informatiques ne se limitent pas aux startups technologiques et aux PME. Certaines des violations de données les plus historiques de la dernière décennie concernent Facebook, Yahoo ! et même le gouvernement américain.
Protégez-vous des risques de sécurité de l’IA
Compte tenu de ces points, devriez-vous éviter complètement l’IA ? Bien sûr que non. L’IA est intrinsèquement amorale ; tous les risques de sécurité proviennent des personnes qui les utilisent. Et ils trouveront des moyens d’exploiter les systèmes d’IA, quel que soit leur degré d’évolution.
Au lieu de craindre les menaces de cybersécurité liées à l’IA, comprenez comment vous pouvez les prévenir. Ne vous inquiétez pas : de simples mesures de sécurité suffisent amplement. Se méfier des applications d’IA douteuses, éviter les hyperliens bizarres et considérer le contenu de l’IA avec scepticisme permet déjà de lutter contre plusieurs risques.
