Des millions de messages en quelques heures, de fausses discussions sur des forums: l’intelligence artificielle permet aux infox et aux opérations d’ingérence étrangère de démultiplier encore davantage leur impact à moindre coût, alertent les experts. A l’approche des élections européennes dimanche, «il y a une massification générale» de ces contenus venus de l’étranger et l’IA «est une nouvelle étape dans la chaîne d’automatisation de ces publications (qui) permet d’(en) massifier la production», pointe Valentin Châtelet, du laboratoire d’analyse numérique de l’Atlantic Council (DFRLab). Selon les données, du collectif Antibot4Navalny qui traque les opérations d’influence numérique en lien avec la Russie, des milliers de bots (comptes automatiques), sont utilisés quotidiennement par la propagande pro-russe sur X. Dans la foulée de la tuerie du Crocus City Hall près de Moscou le 22 mars, le collectif a compté plus de deux millions de messages sur X en moins de 24 heures, accusant l’Ukraine et l’Occident d’avoir facilité l’attaque ainsi que la fuite des assaillants, une thèse similaire à celle développée, dans un premier temps, par les autorités russes. «Pendant la durée de chaque épisode (événement d’importance planétaire, NLDR), le fonctionnement quotidien régulier est interrompu : tous les bots (…) sont entièrement dédiés à l’épisode en question», a observé Antibot4Navalny.
ChatGPT : OpenAI, le créateur de ChatGPT, avait indiqué fin mai que des groupes d’influence russes, chinois, iranien ainsi qu’une «entreprise commerciale en Israël» avaient utilisé ses programmes pour tenter de manipuler l’opinion d’autres pays. Les contenus fabriqués traitaient d’une «large palette de sujets, notamment l’invasion de l’Ukraine par la Russie, le conflit à Gaza, les élections indiennes, la politique européenne et américaine ainsi que des critiques du gouvernement chinois par des dissidents». L’IA ne sert pas nécessairement à produire des contenus sophistiqués, comme des vidéos type «deepfake», de fausses photos ou de faux audios: selon OpenAI, le système a été utilisé pour générer «principalement du texte, parfois des images, tels que des dessins» satiriques. Elle permet aussi de «simuler de l’engagement» sur les réseaux et «gagner en productivité», note OpenAI. L’IA peut, par exemple, servir à traduire un faux article en de nombreuses langues puis à le poster automatiquement sur une multitude de comptes et de sites. Selon Antibot4Navalny, l’IA permet aussi d’éviter aux bots d’être repérés par la modération des réseaux sociaux en multipliant les messages dont le fond est similaire mais pas tout à fait identiques (formulations différentes, etc.). Et les contenus sont divers : faux articles, faux graffitis, faux reportages… Ces bots peuvent aussi relayer massivement de vrais articles de presse mais en les accompagnant de messages politiques, comme «le RN est la (sic) parti de la paix, contrairement à Macron qui cherche à attiser la guerre» ou que «c’est une honte de voir nos dirigeants gaspiller l’argent du peuple pour des jeux (olympiques)!». «En tant qu’utilisateur, vous pouvez avoir l’impression que ces points de vue sont massivement soutenus par des gens basés en France alors que ce n’est pas forcément le cas», relève Alexandre Alaphilippe, directeur exécutif de l’ONG européenne EU DisinfoLab. «Vous pouvez aller sur un forum, voir des gens qui se parlent entre eux mais en réalité toute cette conversation a été générée par intelligence artificielle (IA)», poursuit le spécialiste.