Les modèles d’intelligence artificielle, qui se sont multipliés depuis le lancement de ChatGPT, manquent de transparence dans leur conception, posant un risque pour les applications qui les utilisent comme socle technique, selon une étude de l’université de Stanford publiée mercredi. D’après un nouvel indice imaginé et calculé par les chercheurs de cette université californienne, le modèle le plus transparent parmi la dizaine évalués est Llama 2, système d’intelligence artificielle lancé par Meta en juillet et réutilisable librement. Mais il n’obtient qu’un score de 54%, encore largement insuffisant selon les auteurs de l’étude. GPT-4, le produit phare d’Open AI, l’entreprise financée par Microsoft derrière le fameux robot ChatGPT, n’obtient pour sa part qu’un score de transparence de 48%. Et les autres modèles en vogue, comme Palm-2 de Google ou Claude 2 de la société Anthropic (financée par Amazon), apparaissent encore plus bas dans le classement. Tous les modèles devraient essayer d’atteindre 80% à 100% de transparence, estime dans un communiqué Rishi Bommasani, directeur de la recherche à Stanford sur les modèles dits de «fondation». Le manque de transparence rend plus difficile pour les entreprises «de savoir si elles peuvent créer en toute sécurité des applications reposant» sur ces modèles commerciaux, et «pour les universitaires de s’appuyer sur ces modèles pour leurs recherches», expliquent les auteurs de l’étude. Cela complique aussi la tâche des consommateurs qui souhaiteraient «comprendre les limites des modèles ou demander réparation pour les préjudices subis». Concrètement, «la plupart des entreprises ne révèlent pas l’étendue des contenus protégés par des droits d’auteurs utilisés pour entraîner leur modèle. Et les entreprises ne divulguent pas non plus l’utilisation de travail humain pour corriger les données d’entraînement, ce qui peut s’avérer très problématique», détaille l’étude. «Aucune entreprise ne fournit d’informations sur le nombre d’utilisateurs qui dépendent de leur modèles, ni de statistiques sur les pays ou marchés qui l’utilisent», déplore aussi Rishi Bommasani. Selon les auteurs, cet indice de transparence pourrait à l’avenir être utilisé par les décideurs politiques et les régulateurs. L’Union européenne, les États-Unis, la Chine, le Royaume-Uni ou le Canada ont annoncé souhaiter l’émergence d’une IA plus transparente. «L’intelligence artificielle constitue une énorme, énorme promesse d’incroyables opportunités, mais elle présente aussi des risques pour notre société, notre économie et notre sécurité nationale», déclarait ainsi le président américain Joe Biden en juillet devant les responsables des entreprises du secteur. Le sujet était au premier plan lors du G7 au Japon en mai, et la Grande-Bretagne s’apprête à organiser en novembre un sommet international sur l’IA.