Le Parlement européen veut mieux encadrer ChatGPT

382

Le projet européen de régulation de l’intelligence artificielle a passé jeudi une étape cruciale en obtenant un premier feu vert des eurodéputés qui ont réclamé de nouvelles interdictions et une meilleure prise en compte du phénomène ChatGPT. L’Union européenne veut être la première au monde à se doter d’un cadre juridique complet pour limiter les dérives de l’intelligence artificielle (IA), tout en sécurisant l’innovation. Bruxelles a proposé il y a deux ans un projet de règlement ambitieux, mais son examen traîne en longueur, retardé ces derniers mois par les controverses sur les dangers des IA génératives capables de créer des textes ou des images. Les États membres de l’UE ont seulement défini leur position fin 2022. Les eurodéputés ont entériné la leur lors d’un vote en commission jeudi matin à Strasbourg qui devra être confirmé en plénière en juin. S’ouvrira ensuite une difficile négociation entre les différentes institutions. «Nous avons reçu plus de 3.000 amendements. Il suffit d’allumer la télé, chaque jour on constate l’importance de ce dossier pour les citoyens», a déclaré Dragos Tudorache, corapporteur du texte. «L’Europe veut une approche éthique, basée sur l’humain», a résumé Brando Benifei, également corapporteur. D’une grande complexité technique, les systèmes d’intelligence artificielle fascinent autant qu’ils inquiètent. S’ils peuvent sauver des vies en permettant un bond en avant des diagnostics médicaux, ils sont aussi exploités par des régimes autoritaires pour exercer une surveillance de masse des citoyens. Le grand public a découvert leur potentiel immense à la fin de l’année dernière avec la sortie du générateur de contenus rédactionnels ChatGPT de la société californienne OpenAI, qui peut rédiger des dissertations originales, des poèmes ou des traductions en quelques secondes. Mais la diffusion sur les réseaux sociaux de fausses images, plus vraies que nature, créées à partir d’applications comme Midjourney, a alerté sur les risques de manipulation de l’opinion. Des personnalités scientifiques ont même réclamé un moratoire sur le développement des systèmes les plus puissants, en attendant qu’ils soient mieux encadrés par la loi. La position du Parlement confirme dans ses grandes lignes l’approche de la Commission. Le texte s’inspire des réglementations existantes en matière de sécurité des produits et imposera des contrôles reposant d’abord sur les entreprises. Le coeur du projet consiste en une liste de règles imposées aux seules applications jugées à «haut risque» par les entreprises elles-mêmes à partir des critères du législateur. Pour l’exécutif européen, il s’agirait de tous les systèmes utilisés dans des domaines sensibles comme les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre ou la gestion des migrations… Parmi les obligations: prévoir un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque. Leur respect sera contrôlé par des autorités de surveillance désignées dans chaque pays membre. Les eurodéputés veulent limiter les obligations aux seuls produits susceptibles de menacer la sécurité, la santé ou les droits fondamentaux. Le Parlement européen entend par ailleurs mieux prendre en compte les IA génératives du type ChatGPT en réclamant un régime spécifique d’obligations qui reprennent essentiellement celles prévues pour les systèmes à haut risque. Les eurodéputés souhaitent aussi contraindre les fournisseurs à mettre en place des protections contre les contenus illégaux et à révéler les données (textes scientifiques, musiques, photos, etc.) protégées par des droits d’auteur et utilisées pour développer leurs algorithmes.