Alors que les modèles linguistiques d’IA modernes tels que ChatGPT et Bing Chat de Microsoft font des vagues dans le monde entier, un certain nombre de personnes s’inquiètent de voir l’IA envahir le monde.
Même si nous ne rencontrerons pas SkyNet dans un avenir proche, l’IA devient meilleure que l’homme dans plusieurs domaines. C’est là que le problème du contrôle de l’IA entre en jeu.
Le problème du contrôle de l’IA expliqué
Le problème du contrôle de l’IA est l’idée que l’IA finira par devenir plus apte à prendre des décisions que l’homme. Selon cette théorie, si les humains ne mettent pas les choses en place correctement à l’avance, nous n’aurons pas la possibilité d’y remédier par la suite, ce qui signifie que l’IA aura un contrôle effectif.
Les recherches actuelles sur l’IA et les modèles d’apprentissage automatique sont, pour le moins, à des années de dépasser les capacités humaines. Cependant, il est raisonnable de penser que, compte tenu des progrès actuels, l’IA dépassera l’homme en termes d’intelligence et d’efficacité.
Cela ne veut pas dire que les modèles d’IA et de ML n’ont pas leurs limites. Après tout, ils sont liés aux lois de la physique et à la complexité informatique, ainsi qu’à la puissance de traitement des appareils qui supportent ces systèmes. Cependant, on peut supposer que ces limites dépassent de loin les capacités humaines.
Cela signifie que les systèmes d’IA superintelligents peuvent constituer une menace majeure s’ils ne sont pas correctement conçus et dotés de garde-fous pour contrôler tout comportement potentiellement malhonnête. Ces systèmes doivent être conçus dès le départ pour respecter les valeurs humaines et contrôler leur puissance. C’est ce que signifie le problème du contrôle lorsqu’il dit que les choses doivent être mises en place correctement.
Si un système d’IA devait dépasser l’intelligence humaine sans les garanties appropriées, le résultat pourrait être catastrophique. Ces systèmes pourraient prendre le contrôle des ressources physiques, car de nombreuses tâches sont accomplies mieux ou plus efficacement. Les systèmes d’IA étant conçus pour atteindre une efficacité maximale, une perte de contrôle pourrait avoir de graves conséquences.
Quand le problème du contrôle de l’IA s’applique-t-il ?
Le principal problème est que plus un système d’IA s’améliore, plus il est difficile pour un superviseur humain de contrôler la technologie afin de s’assurer que le contrôle manuel peut être repris facilement en cas de défaillance du système. En outre, la tendance humaine à se fier à un système automatisé est plus forte lorsque le système fonctionne de manière fiable la plupart du temps.
La suite Tesla Full-Self Driving (FSD) en est un bon exemple. Bien que la voiture puisse se conduire toute seule, elle nécessite qu’un humain ait les mains sur le volant, prêt à prendre le contrôle de la voiture en cas de dysfonctionnement du système. Toutefois, à mesure que ces systèmes d’IA deviennent plus fiables, l’attention de l’homme, même le plus alerte, commence à varier et la dépendance à l’égard du système autonome s’accroît.
Que se passera-t-il lorsque les voitures commenceront à rouler à des vitesses que les humains ne pourront plus suivre ? Nous finirons par céder le contrôle aux systèmes autonomes de la voiture, ce qui signifie qu’un système d’IA contrôlera votre vie, au moins jusqu’à ce que vous atteigniez votre destination.
Le problème du contrôle de l’IA peut-il être résolu ?
Il y a deux réponses à la question de savoir si le problème du contrôle de l’IA peut être résolu. Premièrement, si nous interprétons la question littéralement, le problème du contrôle ne peut pas être résolu. Il n’y a rien que nous puissions faire qui s’attaque directement à la tendance humaine à se fier à un système automatisé lorsque celui-ci fonctionne de manière fiable et plus efficace la plupart du temps.
Cependant, si cette tendance est prise en compte comme une caractéristique de ces systèmes, nous pouvons concevoir des moyens de contourner le problème du contrôle. Par exemple, le document de recherche « Algorithmic Decision-Making and the Control Problem » propose trois méthodes différentes pour résoudre ce problème :
- L’utilisation de systèmes moins fiables exige qu’un humain s’engage activement avec le système, car les systèmes moins fiables ne posent pas le problème du contrôle.
- Attendre qu’un système dépasse l’efficacité et la fiabilité humaine avant de le déployer dans le monde réel.
- Ne mettre en œuvre qu’une automatisation partielle en utilisant la décomposition des tâches. Cela signifie que seules les parties d’un système qui ne nécessitent pas un opérateur humain pour effectuer une tâche importante sont automatisées. C’est ce qu’on appelle l’approche de l’allocation dynamique/complémentaire des fonctions (DCAF).
L’approche DCAF place toujours un opérateur humain à la barre d’un système automatisé, en veillant à ce que son intervention contrôle les parties les plus importantes du processus de prise de décision du système. Si un système est suffisamment engageant pour qu’un opérateur humain y prête constamment attention, le problème du contrôle peut être résolu.
Pourrons-nous jamais vraiment contrôler l’IA ?
À mesure que les systèmes d’IA deviennent plus avancés, plus performants et plus fiables, nous continuerons à leur confier de plus en plus de tâches. Toutefois, le problème du contrôle de l’IA peut être résolu en prenant les bonnes précautions et en mettant en place les bons garde-fous.
L’IA est déjà en train de changer le monde pour nous, principalement pour le meilleur. Tant que la technologie reste sous le contrôle de l’homme, nous ne devrions pas avoir à nous inquiéter.