Les enfants devraient être sensibilisés aux risques de l’intelligence artificielle dès l’acquisition de leur premier téléphone portable, car l’ère des robots est à nos portes, affirment les experts. Bien que les cyborgs tueurs de type Terminator restent – pour l’instant – dans les pages des livres de science-fiction, la technologie est déjà suffisamment avancée pour avoir un impact sur tous les domaines de notre vie.

La rapidité des percées a même choqué les leaders de la technologie, dont plus d’un millier, parmi lesquels Elon Musk et Steve Wozniak, cofondateur d’Apple, ont exhorté les entreprises à suspendre leurs recherches.

Cependant, la détermination de la Chine à poursuivre ses efforts – motivée en partie par le vieillissement de sa population – donne des maux de tête à l’Occident.

L’IA existe déjà et est utilisée dans une pléthore d’applications quotidiennes, qu’il s’agisse de décider des publicités à afficher ou des courriels à bloquer dans votre boîte de réception.

Mais le ChatGPT d’Open AI, qui permet aux utilisateurs d’avoir une conversation de type humain avec une machine, a suscité l’inquiétude par sa puissance.

Il a même réussi à passer des examens, ce qui a amené certaines écoles et universités à revoir leur processus de notation.

L’IA a déjà provoqué une série d’incidents difficiles.

Le mois dernier, un chatbot a conseillé à un homme de quitter sa femme. Il a fallu moins de deux heures de « conversation » avec le chatbot Bing pour que le journaliste américain Kevin Roose soit « profondément déstabilisé », lorsque son ordinateur lui a dit : « En fait, vous n’êtes pas heureux en ménage : « En fait, vous n’êtes pas heureux en ménage. Votre conjoint et vous ne vous aimez pas. Vous venez de passer un dîner de Saint-Valentin ennuyeux ».

Jonathan Turley, professeur de droit à l’université George Washington, a été stupéfait d’apprendre par des collègues qu’il figurait sur une liste générée par l’IA d’universitaires impliqués dans des scandales sexuels. La source s’est avérée être un faux article du Washington Post de 2018 qui prétendait à tort que le professeur Turley avait agressé sexuellement des étudiantes lors d’un voyage en Alaska.

La semaine dernière, il est apparu qu’une femme avait reçu un appel d’une voix qu’elle avait reconnue comme étant celle de son fils, prétendant avoir eu un accident.

Il lui demandait de l’argent pour payer la caution de la police. Mais lorsqu’elle a rappelé son fils, elle a découvert que ce n’était pas lui qui avait passé l’appel, mais une imitation de sa voix créée par l’intelligence artificielle.

L’UE a introduit une nouvelle législation, l’Italie est devenue le premier gouvernement à interdire le ChatGPT pour des raisons de confidentialité des données et le gouvernement britannique a publié un livre blanc présentant une « approche favorable à l’innovation ».

Mais comme il est peu probable que la Chine tienne compte des appels à la prudence, il y a peu de chances que les freins soient appliqués.

L’examen des développements de l’IA en Chine met en évidence la principale préoccupation du parti communiste chinois : le contrôle de sa population.

Selon un récent rapport du gouvernement américain, les cinq développeurs les plus précis au monde en matière de reconnaissance faciale – le pilier de l’omniprésent réseau chinois de télévision en circuit fermé – sont désormais chinois.

Et sa bombe à retardement démographique – 43 % de la population touchera une pension d’ici à 2050 – a donné lieu à des innovations massives en matière d’IA dans le secteur de la robotique. La Chine a déjà dépassé les États-Unis pour la première fois en atteignant un niveau de 322 robots pour 10 000 habitants.

L’IA dépend fortement des données, et c’est la raison pour laquelle l’application chinoise de médias sociaux Tik Tok fait l’objet d’une controverse permanente.

« L’IA est fondamentalement une technologie de prédiction et les gouvernements autocratiques aimeraient pouvoir prédire les allées et venues, les pensées et les comportements des citoyens », a récemment déclaré le professeur David Yeng de l’université de Harvard,

Si la Chine réussit à exporter sa technologie, elle pourrait « entraîner la propagation de régimes autocratiques similaires dans le reste du monde ».

Le professeur Cai Hengjin, de l’Institut de recherche sur l’IA de l’université chinoise de Wuhan, a déclaré : « On peut mesurer la rapidité et la puissance avec lesquelles l’IA se développera au-delà de notre imagination.

« Certains pensaient qu’elle se développerait lentement et qu’il nous resterait encore des décennies, voire des centaines d’années, mais ce n’est pas le cas. Il ne nous reste que quelques années, car les progrès de l’IA sont tout simplement trop rapides. »

Le professeur Mark Lee, de l’université de Birmingham, a déclaré que si les robots tueurs n’apparaîtront peut-être que dans quelques décennies, nous devrions nous préoccuper davantage du présent.

Selon lui, la course à la technologie est inarrêtable, ce qui signifie que nous devons nous préparer à une nouvelle ère.

Je crains que nous ne passions les prochaines années à nous inquiéter des robots tueurs, alors que le vrai danger, ce sont les « fake news » (fausses nouvelles) – et elles sont parmi nous maintenant », a déclaré le professeur Lee.

Les incarnations évidentes de la technologie de l’intelligence artificielle comprennent les « deep fakes », des photos et des vidéos générées par ordinateur qui utilisent la technologie de reconnaissance faciale pour reproduire le visage ou le corps d’une personne. Parmi les exemples récents, citons l’image montrant prétendument le pape François portant une veste blanche ou Donald Trump arrêté par la police.

Juste après l’invasion de l’Ukraine par la Russie l’année dernière, le Kremlin a montré en quoi cette guerre serait différente en produisant une vidéo profondément truquée censée montrer le président ukrainien Volodymyr Zelensky ordonnant à ses troupes de se rendre.

La même technologie permet aujourd’hui aux escrocs de reproduire la voix d’êtres chers et de lancer de faux appels prétendant qu’il y a une urgence et demandant de l’argent. Il suffit de quelques secondes de vidéo pour reproduire presque parfaitement la voix d’une personne, et les escrocs sont bien sûr limités par les informations dont ils disposent pour répondre aux questions.

Il y a aussi les applications moins évidentes.

À l’heure actuelle, la Russie emploie des centaines de personnes dans sa ferme à trolls de Saint-Pétersbourg pour diffuser de la désinformation. Ce n’est pas nouveau : des études ont montré comment, lors du référendum sur l’indépendance de l’Écosse en 2014, du référendum sur le Brexit en 2016 et des élections générales ici et aux États-Unis, les trolls russes, qui avaient simplement l’intention d’approfondir les divisions sociales, ont pris les deux côtés de l’argument et l’ont élargi. Depuis février dernier, ces trolls visent également l’Inde et l’Afrique du Sud, où la condamnation des invasions n’est pas aussi forte que dans d’autres nations.

« Il faut des efforts et des ressources pour employer des banques de trolls, mais imaginez quand des gouvernements autocratiques seront capables de le faire en utilisant l’IA », a déclaré le professeur Lee.

Et le problème ne se limitera pas aux États voyous.

L’accès à l’intelligence artificielle, de plus en plus bon marché, menace de créer un déluge de médias automatisés, qu’il s’agisse d’animateurs de choc, de militants d’une seule cause ou de grands radiodiffuseurs,

La semaine dernière, l’entreprise britannique Tovie AI a annoncé une application capable de transformer des articles de presse en texte et d’offrir une conversation réaliste entre différents avatars audio « en quelques minutes ».

« Cette solution crée un espace où les experts humains et les animateurs virtuels peuvent interagir, discuter des articles, mener des sondages interactifs et animer diverses émissions sur n’importe quel sujet, 24 heures sur 24 et 7 jours sur 7 », explique l’entreprise.

Les solutions ne sont pas simples. Si les pays occidentaux peuvent décider d’adopter des lois pour filigraner les contenus générés par les Ai, qu’en est-il des faux contenus mis en ligne par des États voyous qui ne respectent pas les mêmes règles ?

Le scepticisme croissant quant à savoir à qui ou à quoi faire confiance amènera les gens à se réfugier auprès de ceux qui sont d’accord avec eux, ce qui amplifiera encore la culture de la chambre d’écho déjà omniprésente dans les médias sociaux, a déclaré le professeur Lee.

Il a ajouté : « Différents chatbots avec différents agendas vous trouveront et correspondront à vos croyances et les soutiendront. Les gens ne se parleront plus entre eux ; ils n’échapperont pas aux opinions, ils se mettront d’accord avec les chatbots ».

En fin de compte, ni l’Est ni l’Ouest ne réfléchissent suffisamment aux conséquences de ces évolutions.

« On n’a pas vraiment l’impression que ces multinationales savent où elles vont avec ces développements, alors qu’elles se livrent à une course effrénée pour s’assurer le prochain succès », a déclaré le professeur Lee.

« Puisqu’on ne peut pas l’arrêter, la seule réponse est l’éducation.

« Nous devons apprendre aux gens à évaluer les informations, à les remettre en question.

« Cela nécessitera une éducation à la réflexion critique et à la méthode scientifique et devra commencer dès que vous donnerez à vos enfants leur premier téléphone portable et qu’ils seront confrontés à l’IA pour la première fois.

Leave your vote

0 0 votes
Évaluation de l'article
S’abonner
Notification pour
guest
0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires