Les 27 pays membres de l’Union européenne ont définitivement approuvé la législation pour réguler l’IA

232

Les 27 pays membres de l’Union européenne ont définitivement approuvé mardi une législation inédite au niveau mondial pour réguler les systèmes d’intelligence artificielle (IA) afin de favoriser l’innovation en Europe tout en limitant les possibles dérives. 

Les co-législateurs de l’Union européenne avaient trouvé un accord début décembre au terme de difficiles négociations, certains pays comme la France craignant un encadrement excessif qui menacerait le développement de ce secteur d’avenir. Le texte avait été adopté le 13 mars à une très large majorité par les eurodéputés. Avec «cette législation historique, la première du genre dans le monde», l’Europe «souligne l’importance de la confiance, de la transparence et de la responsabilité (…), tout en veillant à ce que cette technologie en évolution rapide puisse prospérer et stimuler l’innovation européenne», a déclaré dans un communiqué Mathieu Michel, secrétaire d’État belge au Numérique, dont le pays assure la présidence du Conseil de l’UE jusqu’à fin juin. Cette législation s’appliquera pour l’essentiel à partir de 2026. Elle adopte une approche «fondée sur le risque» et impose aux différents systèmes d’IA des contraintes proportionnées aux dangers qu’ils représentent pour la société. Les systèmes d’intelligence artificielle ne présentant qu’un risque limité seront soumis à des obligations de transparence très légères, tandis que les systèmes à haut risque, utilisés par exemple dans les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre, seront soumis à des exigences renforcées avant d’être autorisés dans l’UE 

Ces exigences incluront par exemple un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque. Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine. Des règles spécifiques s’appliqueront aux IA génératives comme ChatGPT d’Open AI pour s’assurer de la qualité des données utilisées dans la mise au point des algorithmes et le respect des droits d’auteur. Les sons, images et textes générés artificiellement devront clairement être identifiés comme tels pour éviter des manipulations de l’opinion.