Accueil Technologie
4 façons dont le gouvernement pourrait réglementer les outils d’IA

4 façons dont le gouvernement pourrait réglementer les outils d’IA

L’idée que les technologies d’IA doivent être réglementées est très répandue. La plupart des gouvernements, des développeurs de produits d’IA et même des utilisateurs ordinaires de ces produits sont d’accord sur ce point. Malheureusement, la meilleure façon de réglementer ce domaine en pleine expansion reste une énigme non résolue.


Si elles ne sont pas contrôlées, les technologies de l’IA peuvent perturber notre mode de vie et menacer notre existence. Mais comment les gouvernements peuvent-ils s’y retrouver dans le labyrinthe des défis que pose ce domaine en pleine évolution ?

1. Réglementation sur la confidentialité et la protection des données

un verrou dans un champ numérique bleu

L’une des principales préoccupations liées aux technologies de l’intelligence artificielle est la confidentialité et la sécurité des données. Les systèmes d’intelligence artificielle sont des machines gourmandes en données. Ils ont besoin de données pour fonctionner, de plus de données pour être efficaces et d’encore plus de données pour s’améliorer. Bien que cela ne soit pas un problème, la manière dont ces données sont obtenues, leur nature, leur traitement et leur stockage constituent l’un des principaux points de discussion concernant les réglementations en matière d’IA.

Dans ces conditions, la voie logique à suivre consiste à mettre en place des réglementations strictes en matière de confidentialité des données qui régissent la collecte, le stockage et le traitement des données, ainsi que les droits des individus – dont les données sont utilisées – à accéder à leurs données et à les contrôler. Les questions que ces réglementations devraient aborder sont les suivantes :

  • Quel type de données peut être collecté ?
  • Certaines données privées doivent-elles être considérées comme taboues dans l’IA ?
  • Comment les entreprises spécialisées dans l’IA devraient-elles traiter les données personnelles sensibles, telles que les dossiers médicaux ou les informations biométriques ?
  • Les entreprises d’IA devraient-elles être tenues de mettre en œuvre des mécanismes permettant aux individus de demander facilement la suppression ou la correction de leurs données personnelles ?
  • Quelles sont les conséquences pour les entreprises d’IA qui ne respectent pas les réglementations en matière de confidentialité des données ? Comment la conformité devrait-elle être contrôlée et comment l’application devrait-elle être assurée ?
  • Peut-être plus important encore, quelle norme les entreprises d’IA devraient-elles mettre en œuvre pour garantir la sécurité des informations sensibles qu’elles détiennent ?

Ces questions et quelques autres ont été au cœur de l’interdiction temporaire de ChatGPT en Italie. Si ces préoccupations ne sont pas prises en compte, l’espace de l’intelligence artificielle risque d’être un désert en matière de confidentialité des données, et l’interdiction italienne pourrait servir de modèle à d’autres interdictions dans le monde entier.

2. Élaboration d’un cadre éthique pour l’IA

fond de code binaire montrant une femme face à un robot

Les entreprises spécialisées dans l’IA se vantent souvent de leur engagement à respecter des lignes directrices éthiques dans le développement de systèmes d’IA. Au moins sur le papier, elles sont toutes partisanes d’un développement responsable de l’IA. Dans les médias, les dirigeants de Google ont souligné que l’entreprise prenait au sérieux la sécurité et l’éthique de l’IA. De même, « l’IA sûre et éthique » est un mantra pour le PDG d’OpenAI, Sam Altman. Ces initiatives sont tout à fait louables.

Mais qui fixe les règles ? Qui décide quelles lignes directrices éthiques en matière d’IA sont suffisantes ? Qui décide à quoi ressemble un développement sûr de l’IA ? À l’heure actuelle, chaque entreprise spécialisée dans l’IA semble avoir sa propre vision du développement responsable et éthique de l’IA. OpenAI, Anthropic, Google, Meta, Microsoft, tout le monde. Il est dangereux de se contenter de compter sur les entreprises d’IA pour faire ce qu’il faut.

Les conséquences d’un espace d’IA non contrôlé peuvent être catastrophiques. Laisser des entreprises individuelles décider des lignes directrices éthiques à adopter et de celles à écarter revient à se diriger comme des somnambules vers une apocalypse de l’IA. La solution ? Un cadre éthique clair pour l’IA qui garantit :

  • Les systèmes d’IA ne désavantagent pas injustement ou ne discriminent pas les individus ou certains groupes en fonction de leur race, de leur sexe ou de leur statut socio-économique.
  • Les systèmes d’IA sont sûrs, sécurisés et fiables, et réduisent au minimum le risque de conséquences involontaires ou de comportements préjudiciables.
  • Les systèmes d’IA sont construits en tenant compte de l’impact sociétal plus large des technologies d’IA.
  • Que les humains conservent le contrôle ultime des systèmes d’IA et de leur prise de décision en toute transparence.
  • Les systèmes d’IA sont intentionnellement limités d’une manière avantageuse pour les humains.

3. Agence de régulation dédiée

ingénieur surveillant les connexions ssh sous linux

En raison de son impact potentiel sur la civilisation humaine, le débat sur la sécurité de l’IA s’apparente généralement au risque d’une crise sanitaire ou d’une catastrophe nucléaire. Pour éviter les incidents nucléaires potentiels, il faut une agence spécialisée comme la NRC (Nuclear Regulatory Commission) aux États-Unis. Pour éviter le risque de crises sanitaires dangereuses, il faut créer la FDA (Food and Drug Administration).

De même, pour s’assurer que les choses ne tournent pas mal dans l’espace de l’IA, une agence spécialisée semblable à la FDA et à la NRC est nécessaire, car l’IA continue à faire des incursions agressives dans tous les domaines de notre vie. Malheureusement, la question de la réglementation de l’IA dans les pays est délicate. Le travail d’une agence de régulation spécialisée risque d’être extrêmement difficile en l’absence de coopération transfrontalière. Tout comme la NRC (Nuclear Regulatory Commission) des États-Unis doit travailler main dans la main avec l’Agence internationale de l’énergie atomique (AIEA) pour donner le meilleur d’elle-même, toute agence de réglementation de l’IA dans un pays donné aurait également besoin d’un analogue international.

Une telle agence serait chargée des tâches suivantes :

  • L’élaboration d’une réglementation en matière d’IA
  • Garantir la conformité et l’application
  • Superviser le processus d’examen éthique des projets d’IA
  • Collaboration et coopération internationale en matière de sécurité et d’éthique de l’IA

Illustration d'un voleur de droits d'auteur

Les lois sur le droit d’auteur et les cadres juridiques existants s’effondrent face à l’intelligence artificielle. La façon dont les outils d’IA, en particulier les outils d’IA générative, sont conçus les fait ressembler à une machine à enfreindre le droit d’auteur, approuvée publiquement, contre laquelle on ne peut rien faire.

Comment cela se fait-il ? Eh bien, de nombreux systèmes d’IA d’aujourd’hui sont formés en utilisant des documents protégés par le droit d’auteur. Vous savez, des articles, des chansons ou des images protégés par le droit d’auteur, etc. C’est ainsi que des outils comme ChatGPT, Bing AI et Google Bard peuvent faire des choses aussi géniales.

Bien que ces systèmes tirent clairement profit de la propriété intellectuelle, la manière dont ils le font n’est pas différente de celle d’un humain lisant un livre protégé par le droit d’auteur, écoutant des chansons protégées par le droit d’auteur ou regardant des images protégées par le droit d’auteur.

Vous pouvez lire un livre protégé par le droit d’auteur, en tirer de nouvelles informations et les utiliser comme base pour votre propre livre. Vous pouvez également écouter une chanson protégée par le droit d’auteur et vous en inspirer pour créer votre propre musique. Dans les deux cas, vous avez utilisé des éléments protégés par le droit d’auteur, mais cela ne signifie pas nécessairement que le produit dérivé porte atteinte au droit d’auteur de l’original.

Bien qu’il s’agisse d’une explication logique du désordre que l’IA crée dans les lois sur le droit d’auteur, cela nuit toujours aux détenteurs de droits d’auteur et de propriété intellectuelle. Dans ce contexte, des réglementations sont nécessaires pour :

  • Définir clairement les responsabilités de toutes les parties impliquées dans le cycle de vie d’un système d’IA. Il s’agit notamment de clarifier les rôles de chaque partie, des développeurs d’IA aux utilisateurs finaux, afin de garantir que les parties responsables soient tenues de rendre compte de toute violation des droits d’auteur ou de la propriété intellectuelle commise par les systèmes d’IA.
  • Renforcer les cadres existants en matière de droits d’auteur et éventuellement introduire des lois sur les droits d’auteur spécifiques à l’IA.
  • Pour garantir l’innovation dans l’espace de l’IA tout en sauvegardant les droits des créateurs originaux, les réglementations sur l’IA devraient redéfinir les concepts d’utilisation équitable et d’œuvre transformatrice dans le contexte du contenu généré par l’IA. Des définitions et des lignes directrices plus claires sont nécessaires pour que l’espace de l’IA puisse continuer à s’améliorer tout en respectant les limites du droit d’auteur. Il est essentiel de trouver un équilibre entre l’innovation et la préservation des droits des créateurs de contenu.
  • Des voies claires pour la collaboration avec les détenteurs de droits. Si les systèmes d’IA utilisent de toute façon la propriété intellectuelle des gens, il devrait y avoir des voies ou des cadres clairs pour que les développeurs d’IA et les détenteurs de droits collaborent, en particulier en termes de compensations financières, si le travail dérivé de ces propriétés intellectuelles est commercialisé.

La réglementation de l’IA est un remède désespérément nécessaire

Si l’intelligence artificielle est apparue comme une solution prometteuse à bon nombre de nos problèmes de société, l’IA elle-même est en train de devenir rapidement un problème nécessitant une solution urgente. Il est temps de prendre du recul, de réfléchir et d’apporter les correctifs nécessaires pour garantir l’impact positif de l’IA sur la société. Nous avons désespérément besoin d’un recalibrage urgent de notre approche de la construction et de l’utilisation des systèmes d’IA.

Leave your vote

0 0 votes
Évaluation de l'article
S’abonner
Notification pour
guest
0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires

Log In

Forgot password?

Don't have an account? Register

Forgot password?

Enter your account data and we will send you a link to reset your password.

Your password reset link appears to be invalid or expired.

Log in

Privacy Policy

Add to Collection

No Collections

Here you'll find all collections you've created before.

0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x