Comment l’alignement de l’IA peut-il résoudre les problèmes de contrôle ?

Avec des modèles de langage d’IA modernes comme ChatGPT et Bing Chat de Microsoft qui font des vagues dans le monde entier, un certain nombre de personnes s’inquiètent de la conquête du monde par l’IA.


Bien que nous ne rencontrions pas SkyNet dans un avenir prévisible, l’IA s’améliore que les humains à plusieurs égards. C’est là qu’intervient le problème du contrôle de l’IA.


Le problème de contrôle de l’IA expliqué

Le problème du contrôle de l’IA est l’idée que l’IA finira par devenir meilleure pour prendre des décisions que les humains. Selon cette théorie, si les humains ne configurent pas les choses correctement à l’avance, nous n’aurons aucune chance de les régler plus tard, ce qui signifie que l’IA aura un contrôle efficace.

La recherche actuelle sur les modèles d’IA et d’apprentissage automatique (ML) est à au moins des années de surpasser les capacités humaines. Cependant, il est raisonnable de penser que, compte tenu des progrès actuels, l’IA dépassera les humains en termes d’intelligence et d’efficacité.

Lire aussi :  Comment l'application Voilà AI Artist peut-elle garantir une sécurité optimale ?

Cela ne veut pas dire que les modèles d’IA et de ML n’ont pas leurs limites. Après tout, ils sont liés par les lois de la physique et de la complexité informatique, ainsi que par la puissance de traitement des appareils qui prennent en charge ces systèmes. Cependant, il est prudent de supposer que ces limites sont bien au-delà des capacités humaines.

Cela signifie que superintelligent Les systèmes d’IA peuvent constituer une menace majeure s’il n’est pas correctement conçu avec des garanties en place pour vérifier tout comportement potentiellement malveillant. De tels systèmes doivent être construits à partir de zéro pour respecter les valeurs humaines et limiter leur pouvoir. C’est ce que signifie le problème de contrôle lorsqu’il dit que les choses doivent être configurées correctement.

Si un système d’IA devait surpasser l’intelligence humaine sans les garanties appropriées, le résultat pourrait être catastrophique. De tels systèmes peuvent assumer le contrôle des ressources physiques car de nombreuses tâches sont accomplies mieux ou plus efficacement. Étant donné que les systèmes d’IA sont conçus pour atteindre une efficacité maximale, la perte de contrôle peut entraîner de graves conséquences.

Quand le problème de contrôle de l’IA s’applique-t-il ?

Le principal problème est que plus un système d’IA s’améliore, plus il est difficile pour un superviseur humain de surveiller la technologie pour s’assurer que le contrôle manuel peut facilement être repris en cas de défaillance du système. De plus, la tendance humaine à s’appuyer sur un système automatisé est plus grande lorsque le système fonctionne de manière fiable la plupart du temps.

Lire aussi :  Comment détecter les dangers cachés dans les textes générés par l'IA ?

Image d'un ordinateur portable avec IA à l'écran et ChatGPT dans différentes polices en arrière-plan

Un bon exemple en est le Suite Tesla Full-Self Driving (FSD). Bien que la voiture puisse se conduire toute seule, elle nécessite qu’un humain ait les mains sur le volant, prêt à prendre le contrôle de la voiture en cas de dysfonctionnement du système. Cependant, à mesure que ces systèmes d’IA deviennent plus fiables, même l’attention de l’homme le plus alerte commencera à changer et la dépendance à l’égard du système autonome augmentera.

Que se passe-t-il lorsque les voitures commencent à rouler à des vitesses que les humains ne peuvent pas suivre ? Nous finirons par céder le contrôle aux systèmes autonomes de la voiture, ce qui signifie qu’un système d’IA sera en charge de votre vie, au moins jusqu’à ce que vous atteigniez votre destination.

Le problème de contrôle de l’IA peut-il être résolu?

Il y a deux réponses pour savoir si le problème de contrôle de l’IA peut être résolu ou non. Premièrement, si nous interprétons la question littéralement, le problème de contrôle ne peut pas être résolu. Nous ne pouvons rien faire qui cible directement la tendance humaine à s’appuyer sur un système automatisé alors qu’il fonctionne de manière fiable et plus efficace la plupart du temps.

Cependant, si cette tendance devait être prise en compte comme une caractéristique de tels systèmes, nous pouvons concevoir des moyens de contourner le problème de contrôle. Par exemple, le Prise de décision algorithmique et problème de contrôle Le document de recherche suggère trois méthodes différentes pour faire face à la situation difficile :

  • L’utilisation de systèmes moins fiables nécessite de s’impliquer activement dans le système car les systèmes moins fiables n’ont pas le problème de contrôle.
  • Attendre qu’un système dépasse l’efficacité et la fiabilité humaines avant de le déployer dans le monde réel.
  • Pour implémenter uniquement une automatisation partielle à l’aide de la décomposition des tâches. Cela signifie que seules les parties d’un système qui ne nécessitent pas d’opérateur humain pour effectuer une tâche importante sont automatisées. C’est ce qu’on appelle l’approche d’affectation dynamique/complémentaire de fonction (DCAF).

L’approche DCAF place toujours un opérateur humain à la tête d’un système automatisé, garantissant que sa contribution contrôle les parties les plus importantes du processus décisionnel du système. Si un système est suffisamment contraignant pour qu’un opérateur humain y prête une attention constante, le problème de contrôle peut être résolu.

Pouvons-nous vraiment contrôler l’IA ?

À mesure que les systèmes d’IA deviendront plus avancés, plus performants et plus fiables, nous continuerons à leur confier davantage de tâches. Cependant, le problème de contrôle de l’IA peut être résolu avec les bonnes garanties et précautions.

L’IA change déjà le monde pour nous, principalement pour le mieux. Tant que la technologie est sous surveillance humaine, nous ne devrions pas nous inquiéter.

Mathieu

Laisser un commentaire

Publicité :