L’IA sera présente dans le futur, mais parlons aussi des risques présents !

De nombreux chercheurs signataires ont expliqué les raisons de leur inquiétude : le risque que nous construisions des systèmes d’IA puissants que nous ne pourrons pas contrôler au cours de cette décennie ou des suivantes.

Certains ont suggéré que la déclaration était un stratagème de l’industrie pour vanter les produits des entreprises d’IA ou influencer la réglementation, ignorant que la plupart des signataires – y compris nous-mêmes – sont des universitaires qui ne travaillent pas pour l’industrie. Mais la préoccupation la plus fréquente que nous avons entendue est qu’en se concentrant sur le risque d’extinction, la déclaration détourne l’attention des méfaits actuels de l’IA. En tant que bénévoles ayant participé à la collecte de signatures et à l’élaboration de la déclaration, nous ne sommes pas d’accord, car les deux problèmes ont un point commun. La fausse dichotomie entre les préjudices actuels et les risques émergents complique inutilement le traitement des causes profondes communes.

L’es systèmes d’iA peuvent entretenir les violations des droits de l’homme, perpétuer la discrimination systémique et renforcer les déséquilibres du pouvoir.

L’IA pose de nombreux problèmes. Les systèmes d’IA peuvent entretenir les violations des droits de l’homme, perpétuer la discrimination systémique et renforcer les déséquilibres de pouvoir. Les systèmes d’IA étant souvent déployés à grande échelle, les préjudices peuvent atteindre des proportions considérables. Par exemple, des dizaines de milliers de familles ont basculé dans la pauvreté lorsque l’administration fiscale et douanière néerlandaise les a accusées à tort de fraude et leur a demandé de rembourser d’importantes sommes d’argent, sur la base de profils de risque créés par des systèmes d’iA.

Les causes profondes des dommages causés par l’IA

Il existe plusieurs causes qui contribuent à de nombreux cas de dommages causés par l’iA. L’une d’entre elles est que nous ne savons pas comment concevoir des systèmes d’iA qui se comportent de manière fiable. Exemple, un système de santé a été conçu pour allouer les soins en fonction des besoins du patient, mais il a discriminé les patients noirs hospitalisés. Il s’est avéré que l’algorithme utilisait les coûts des soins de santé comme indicateur des besoins, mais le racisme institutionnalisé signifie que moins d’argent a été dépensé pour les patients noirs dans le passé. Dans de nombreux cas similaires, les entreprises ne cherchent pas explicitement à créer des systèmes d’iA nuisibles. Au contraire, la création de systèmes d’IA de pointe nécessite de grandes quantités de données, et les systèmes d’IA héritent involontairement des préjugés encodés dans ces données.

A lire également : L’IA et l’obsolescence de la cognition humaine

Une autre cause est la pression concurrentielle et la responsabilité limitée des créateurs d’algorythmes. Il existe souvent une forte incitation économique à déployer des systèmes d’IA sans contrôles de sécurité suffisants. Par exemple, Microsoft a précipité le lancement du chatbot Bing, ce qui a eu pour conséquence que le chatbot a menacé et insulté des utilisateurs. Lorsque l’administration fiscale néerlandaise a remplacé le jugement humain par des systèmes d’IA, cela s’est également produit au nom de l’efficacité.

Si aucune mesure décisive n’est prise pour s’attaquer à ces causes, les systèmes d’IA de plus en plus puissants et largement déployés causeront des dommages très importants. De nombreux experts estiment que les futurs systèmes d’IA pourraient surpasser les humains dans des compétences cognitives cruciales, telles que la persuasion, la planification et le développement de nouvelles technologies. Tout comme ces capacités cognitives ont permis à l’humanité de contrôler le destin d’autres espèces, les mêmes compétences pourraient permettre à des systèmes d’IA plus intelligents de nous surpasser.

Compte tenu de la concurrence et de la responsabilité limitée, les organisations seraient poussées à remplacer la main-d’œuvre humaine coûteuse par des systèmes d’IA. Les forces économiques encouragent le déploiement rapide de nouveaux systèmes d’IA (au prix de tests de sécurité), les rendant toujours plus puissants, construisant des systèmes généraux (et potentiellement plus puissants) plutôt que des systèmes étroits (et potentiellement plus contrôlables), et augmentant l’autonomie des systèmes d’IA pour agir dans le monde. Les systèmes d’IA pourraient de plus en plus contrôler les principales capacités productives, managériales et militaires de notre société. D’ici là, nous devrons avoir trouvé le moyen de concevoir des systèmes qui se comportent toujours et réellement comme nous le souhaitons. Dans le cas contraire, des systèmes d’IA puissants poursuivant des objectifs contraires à ceux de l’humanité pourraient conduire à la marginalisation, voire à l’extinction de l’homme.

Nos capacités cognitives nous ont permis de contrôler d’autres espèces, ses mêmes compétences pourraient permettre à des systèmes d’iA plus intelligents de nous contrôler.

En outre, de nombreux chercheurs s’attendent à ce que nous développions très bientôt des systèmes d’iA plus avancés. Les entreprises consacrent davantage d’argent et de talents au développement de l’IA, tandis que le coût de la puissance de calcul diminue. Le simple fait d’utiliser davantage de puissance de calcul et de données a permis de produire des systèmes d’IA plus performants, tandis que les algorithmes d’IA se sont également améliorés. Après avoir constaté les progrès rapides de l’IA au cours des cinq dernières années, Geoffrey Hinton, l’un des pères fondateurs de l’IA moderne, estime aujourd’hui que l’IA pourrait largement dépasser les capacités cognitives humaines, telles que la persuasion, la planification et le raisonnement scientifique, d’ici cinq à vingt ans. Cet horizon temporel est partagé par de nombreux membres de la communauté des chercheurs en IA.

Vingt ans, c’est court ; dans les discussions sur la crise climatique, nous examinons régulièrement les effets sur de telles échelles de temps. Et tout comme le changement climatique nous oblige à faire face à la pollution de l’air et aux catastrophes naturelles actuelles, ainsi qu’à prévenir de futurs événements météorologiques encore plus extrêmes, nous devons nous attaquer simultanément à divers risques et dommages liés à l’IA. Même si nous ne sommes qu’à quelques décennies de systèmes d’IA plus intelligents que les humains, c’est peu de temps pour créer les structures complexes de contrôle mondiale nécessaires pour contrer cette technologie.

Les efforts visant à remédier aux dommages présents diffèrent parfois des efforts visant à gérer le risque d’extinction. Nous ne souhaitons pas gommer les nuances ou les différences potentielles entre celle-ci. Cependant, étant donné les causes conséquences, il y a beaucoup de place pour la collaboration et la coopération.

Quatre solutions possibles

De nombreuses interventions pourraient s’attaquer aux problèmes de fond. Tout d’abord, le public n’a actuellement que peu, voire pas du tout, son mot à dire sur les modèles qui sont construits et sur la manière dont ils sont déployés. Par exemple, les personnes les plus touchées par les systèmes de protection sociale n’ont guère eu leur mot à dire sur leur automatisation. Les entreprises privées décident des risques acceptables, car elles ont la mainmise sur la puissance de calcul et les données, qui sont les principaux leviers du développement de l’IA. Un contrôle démocratique plus strict de la fourniture de puissance de calcul et de données renforcerait le contrôle public sur le développement de l’IA et les risques qui y sont associés. Par exemple, les gouvernements peuvent contrôler quand de grandes quantités de puissance de calcul sont utilisées et dans quel but.

Deuxièmement, un régime d’audit solide, dans lequel des tiers indépendants examineraient les pratiques et les processus de développement des laboratoires d’IA, contribuerait à réduire les risques de manière générale. L’audit a déjà permis de mettre en évidence des problèmes précédemment ignorés, tels que les biais dans la reconnaissance faciale, et pourrait permettre de détecter des modes de défaillance futurs, tels que des systèmes d’IA subvertissant le contrôle humain ou se reproduisant de manière autonome. Un organisme de normalisation pourrait veiller à ce que les systèmes d’IA, avant et après leur déploiement, respectent des lignes directrices précises en matière de sécurité. Les agences nationales pourraient veiller au respect de ces normes, tandis qu’une organisation internationale créerait des normes universelles.

Troisièmement, nous devrions exiger une surveillance humaine significative des décisions critiques de l’IA et éviter les cas d’utilisation à très haut risque tels que les armes autonomes létales. L’incertitude quant aux capacités actuelles et futures des systèmes d’IA signifie que nous devons faire preuve de prudence quant à leur déploiement dans des domaines critiques.

Quatrièmement, nous devrions rééquilibrer le financement des IA et inciter les entreprises à dépenser moins pour les rendre plus intelligentes, tout en augmentant le financement pour les rendre plus sûres, plus transparentes et étudier leur impact social. S’il est bon que les laboratoires industriels financent ces recherches, ce financement est susceptible d’évoluer en fonction des conditions du marché. Un financement public beaucoup plus important pour les groupes non industriels est nécessaire.

Le développement de systèmes d’iA de plus en plus puissants pose des risques de plus en plus importants à l’échelle de la société. La complexité de ces risques exige une coopération entre des personnes aux motivations potentiellement différentes, mais qui ont un intérêt commun à veiller à ce que le développement de l’IA se fasse de manière juste et bénéfique.


Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*