« Les systèmes d’IA dotés d’une intelligence compétitive avec celle des humains peuvent présenter des risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies et comme le reconnaissent les principaux laboratoires d’IA », peut-on lire dans une lettre ouverte rédigée le mois dernier par le Future of Life Institute et signée par des personnalités telles qu’Elon Musk.

Cette lettre faisait suite à la publication de ChatGTP 4, un puissant chatbot d’intelligence artificielle (IA) développé par OpenAI. Selon la lettre, le risque immédiat pour l’humanité est tel que la recherche sur les technologies devrait être interrompue pendant six mois.

« La lettre conclut : « Devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contre-vérités ? « Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous prendre le risque de perdre le contrôle de notre civilisation ?

Ce qui inquiète le plus les experts, c’est la vitesse à laquelle les technologies telles que le ChatGPT 4 se sont développées : une vie entière de progrès écrasée en quelques années.

Le monde de l’IA est divisé sur la question de savoir si elle représente réellement une menace pour l’homme, et dans quel contexte. Certains disent qu’elle menace nos emplois. D’autres disent qu’elle menace nos vies. Ce qui est certain, c’est que l’IA risque de nous déchirer, quoi que cela puisse signifier.

LIRE LA SUITE : Une femme de 75 ans est l’une des premières à voir son cancer détecté par l’intelligence artificielle – un « outil majeur ».

Rien de nouveau

Le premier programme d’IA réussi a été écrit en 1951 par Christopher Strachey – en s’appuyant sur la théorie d’Alan Turing – et dès l’été 1952, son programme pouvait jouer un jeu de dames complet à une vitesse raisonnable sur l’ordinateur Ferranti Mark I.

Cette époque est bien loin. Aujourd’hui, l’IA est utilisée pour bien plus que des jeux.

« Justin E. Lane, PDG de CulturePulse et universitaire de renom dans le domaine de l’IA, a déclaré : « C’est incroyablement impressionnant.

M. Lane utilise l’IA de toutes sortes de façons pour stimuler son entreprise, tout en inventant de nouvelles utilisations et applications pour cette technologie. Il l’a récemment utilisée dans le cadre de ses recherches universitaires, en appliquant une technologie créée par son entreprise pour passer au crible 50 millions d’articles relatifs à l’accord du Vendredi saint.

Le programme a conclu que l’accord « n’a pas abordé les questions sous-jacentes relatives à la justice et à l’héritage » dans le cadre d’une tâche qui aurait pris des années à des humains et coûté des dizaines de milliers de livres.

Le programme a prouvé sa valeur, en aidant à mieux comprendre un problème déterminant de notre époque. Mais il a rendu superflu le travail d’un chercheur.

Plus inquiétante est l’incapacité de l’IA à comprendre et à saisir les nuances humaines, dont beaucoup sont cruciales pour comprendre les questions en jeu.

JUST IN:Une annonce d’attaque de l’IA inquiète certains quant au rôle de l’IA dans les élections de 2024

« L’intelligence artificielle n’est pas capable de réfléchir sur elle-même », a déclaré M. Lane. « Le Chat GPT, par exemple, ne peut pas vous dire de manière fiable combien de caractères il y a dans sa dernière réponse. Il n’a donc aucune capacité d’autoréflexion, même pour des tâches très basiques comme le comptage du nombre de lettres que l’utilisateur a tapées.

ChatGPT 4 collecte aveuglément toutes les informations qu’il peut trouver sur Internet pour fournir une réponse à l’utilisateur. Il ne sait pas pourquoi il fait ce qu’il fait. Mais nombreux sont ceux qui estiment que ce manque d’autoréflexion pourrait bientôt prendre fin.

Demis Hassabis, directeur de Google Deep Mind, a déclaré ce mois-ci qu’il était « possible » que l’IA parvienne « un jour » à la conscience de soi.

L’année dernière, Blake Lemoine, ingénieur logiciel chez Google, a été licencié après avoir déclaré que le chatbot LaMDa de Google était une personne, affirmant qu’il était devenu sensible et conscient de lui-même. Les experts en IA ont rejeté cette affirmation : les chatbots avaient simplement été programmés et entraînés à utiliser le langage de la même manière que les humains, ont-ils déclaré.

Le Dr Lane ne s’inquiète pas tant de cet aspect de l’IA que de la possibilité pour les gouvernements d’en faire une arme. « En fait, je pense qu’elle a déjà été militarisée », a-t-il déclaré. « Non seulement au sens littéral des armes militaires, mais aussi dans le domaine de la désinformation.

« La guerre de l’information, qui est en quelque sorte la caractéristique principale de la guerre froide actuelle, est déjà en train d’être militarisée – cela fait plusieurs années que cela se produit, mais nous commençons seulement à nous en préoccuper.

Dans ce contexte, il craint que si l’on donne à l’IA un rôle plus important dans notre vie quotidienne, « nous commençons à lui donner un rôle plus important dans la manière dont nos vies sont contrôlées ». […] elle a le potentiel de déchirer la société ».

Ne manquez pas…
L’augmentation du nombre de cancers de la gorge au Royaume-Uni est liée aux rapports sexuels oraux [REPORT]
Cinq Britanniques meurent après avoir contracté la nouvelle souche d’Arcturus Covid [LATEST]
Les plans de Musk pour sa grande fusée « interrompus pendant des mois » après les dégâts causés par l’explosion [ANALYSIS]

Vrai ou faux ?

En 2020, des vidéos de personnalités, d’hommes politiques et de célébrités tenant des propos délirants et controversés ont inondé l’internet.

Dans l’une d’elles, on entend l’ancien président américain Barack Obama qualifier Donald Trump de « parfait crétin ». Une autre a vu Mark Zuckerberg se vanter d’avoir « le contrôle total des données volées de milliards de personnes ».

Les vidéos étaient des « deep fakes », une technologie alimentée par l’IA qui crée des images de faux événements à partir de vraies vidéos. Elles ont été signalées à l’époque comme présentant l’un des plus grands risques pour la société, leur nature destructrice étant illimitée.

Cette année-là, David Sancho, chercheur principal en antivirus chez Trend Micro, et Vincenzo Ciancaglini, chercheur principal en menaces chez Trend Micro, ont rédigé un document avec Europol et l’Institut interrégional de recherche des Nations unies sur la criminalité et la justice sur la manière de surmonter les fausses vidéos profondes malveillantes qui représentent un risque pour la société. « En l’espace d’une semaine, l’article n’était plus d’actualité parce que ChatGPT 3 était sorti », a déclaré M. Ciancaglini à Encause.co.uk.

Son introduction a ouvert un nouveau monde aux criminels travaillant en ligne pour commettre toutes sortes de fraudes et de falsifications.

L’exemple le plus simple est celui des escroqueries à la traduction. Jusqu’à présent, les criminels se concentraient sur certains domaines d’activités frauduleuses en raison des barrières linguistiques. « L’exemple classique est celui de l’escroquerie au prince nigérian, qui était si facile à repérer parce que vous receviez des courriels très mal rédigés vous demandant de l’argent », a déclaré M. Ciancaglini.

« Aujourd’hui, ce même prince peut vous écrire un courriel dans un anglais très soigné. Il peut écrire un courriel en allemand, il peut écrire un courriel en français. Il peut le traduire instantanément.

« Non seulement cela, mais l’une des premières démonstrations de GPT 3 à l’époque montrait comment vous pouvez même traduire du jargon, traduire d’un jargon à un autre. Cela signifie que vous pouvez prendre un texte en jargon juridique, un texte juridique très compliqué, et le rendre compréhensible pour un enfant de cinq ans et vice versa.

« Vous pouvez prendre un message pour un courriel de spear phishing et le faire réécrire pour qu’il utilise le jargon du domaine spécifique. Si vous ciblez un cadre du secteur du pétrole et du gaz ou de l’énergie, ces secteurs techniques utilisent un vocabulaire spécifique qui, par le passé, permettait de repérer facilement un étranger. Désormais, vous disposez d’un outil qui vous permet de ressembler à quelqu’un qui travaille sur le terrain ».

Selon eux, des outils comme ChatGPT ont « abaissé les barrières » qui empêchent les criminels d’entrer dans le monde en ligne. « Il est désormais possible pour n’importe quel criminel de demander à ChatGPT de créer un programme qui fait ceci, ceci et cela », a déclaré M. Sancho à Encause.co.uk.

« Et si les intentions sont malveillantes, il renvoie un code parfaitement fonctionnel qui ne prend pas de temps à compiler et à utiliser. La barrière est aujourd’hui ridiculement basse ».

Les deux experts sont prudents lorsqu’il s’agit de prédire l’avenir de la technologie et la manière dont les criminels l’utiliseront. La vitesse à laquelle elle a progressé est telle que tout peut arriver, disent-ils.

Pourrait-elle sauver la planète ?

L’accent a été mis sur le fait que l’IA risque de nous déchirer. Pourtant, certaines personnes utilisent discrètement cette technologie pour faire le bien.

Sokol Murturi, maître de conférences à Goldsmiths, Université de Londres, utilise l’IA pour aider à la croissance des coraux en captivité. Avec la hausse des températures, ces invertébrés marins risquent de disparaître. « C’est un gros problème, nous sommes en train de perdre la Grande Barrière de Corail. Nous perdons du corail partout », a-t-il déclaré à Encause.co.uk.

Grâce à l’IA, M. Murturi a pu suivre les paramètres de l’eau dans les aquariums abritant des coraux et conseiller les biologistes marins sur la manière de préserver les coraux et de les maintenir en bonne santé en captivité.

Il explique : « Il s’agit d’une approche vraiment différente de l’utilisation traditionnelle de l’IA. De cette manière, l’IA peut contribuer à uniformiser les règles du jeu ».

À ses yeux, l’IA offre aux humains un moyen de résoudre des problèmes anciens de manière créative et avec facilité : « Ce qui est merveilleux, c’est que les gens ont de belles idées, et l’IA peut aider à donner vie à ces idées en supprimant les tâches banales comme, dans mon cas, la surveillance des paramètres de l’eau du corail – c’est un travail très ennuyeux. »

« L’IA peut vous aider dans une tâche créative : elle peut vous fournir une idée à laquelle vous n’auriez pas pensé à l’origine, mais c’est à vous de prendre cette expiration originale et de la transformer en quelque chose de valable et de réel », a-t-il ajouté.

« L’IA ne peut pas le faire à votre place – les humains sont les créateurs. L’IA elle-même ne peut pas assumer le rôle d’un créatif, d’un professionnel ou d’une personne éduquée. L’objectif ultime est donc de faire en sorte que l’IA nous informe sur nos prises de décision plutôt que d’automatiser toutes ces prises de décision à notre place. »

Leave your vote

0 0 votes
Évaluation de l'article
S’abonner
Notification pour
guest
0 Commentaires
Commentaires en ligne
Afficher tous les commentaires