L’intelligence artificielle (IA) peut être très utile aux photojournalistes mais constitue aussi une menace pour l’information vraie si des limites claires à son usage ne sont pas définies, selon un débat au 35e festival Visa pour l’image, à Perpignan. «Nous ne pouvons pas arrêter le développement de ces technologies», a souligné Laura Morton, photojournaliste américaine, qui l’a constaté de visu lors d’un reportage sur la ruée vers l’ouest des Etats-Unis et le fourmillement dans la Silicon Valley d’experts travaillant sur l’IA. Partant de là, elle a insisté sur le fait que les acteurs du web, «les grandes plates-formes, doivent assumer la responsabilité (…) que ces images ne soient pas disséminées d’une manière erronée». Et, comme la plupart des intervenants, journalistes et acteurs d’internet à ce débat organisé vendredi après-midi, elle a souligné l’importance de «l’humain» quant à la mise en oeuvre et les utilisations de l’IA. Plusieurs images ainsi générées ont été projetées sur grand écran pendant la table-ronde: sur la guerre en Ukraine, l’ex-président américain Donald Trump ou le travail du photographe américain Michael Christopher Brown avec «90 miles» sur la traversée de Cubains vers la Floride, situation qui n’a pas été photographiée. Pour le photojournaliste suisse Niels Ackermann, son confrère «n’a pas voulu flouer les gens, a été transparent sur son travail», et «c’est un bon moyen de nous réveiller en disant que maintenant on est dans une époque où on peut créer des photos qui sont totalement réalistes et qui incarnent le faux». «Là, il y a quelque chose de très dangereux», a-t-il estimé, soulignant l’importance de l’éducation afin de «se demander d’où vient» une photo et éviter le risque de ne «plus regarder les images» parce qu’«on partira du principe que c’est faux». Au delà de celles créées de toute pièce, Alexandre Lavallée, cofondateur de Glossia, plate-forme de services d’IA, a estimé que «ce qui est plus perfide» c’est la capacité d’ainsi «modifier des images (…) changer des éléments» en partant d’une base réelle et que «c’est ça le danger». Le secrétaire général de Google France Benoit Tabaka a tenu à préciser que «l’IA ce n’est pas l’IA générative», qu’elle est «déjà présente dans la vie de tous les photographes», dans leurs appareils pour «l’autofocus, l’ajustement de la lumière» et aussi «les retouches automatiques» dans les téléphones portables. Mais les acteurs du web développent des outils pour détecter les images générées par l’IA, a-t-il ajouté, insistant sur la «traçabilité», le fait d’inscrire une empreinte, ou watermark, sur les photos afin de les «labelliser» et «informer immédiatement le public» qu’il s’agit de «situations qui n’ont jamais existé». Pour Thierry Meneau, chef du service photo du quotidien économique «Les Echos», au delà de l’importance de développer des outils technologiques, il y a «l’humain», des iconographes dotés d’«une culture de l’image, qui leur permet de détecter (…) des détails» suscitant le soupçon sur la véracité de ce qui est montré. Notant que l’IA peut aussi servir à restaurer des images anciennes, à numériser comme métadonnées les indications de l’époque inscrites à la main ou à analyser des photos aériennes pour détecter la présence de mines ou de pistes d’atterrissage clandestines. Plusieurs intervenants pensent aussi que l’IA peut être une issue de sortie de la crise à laquelle sont confrontés les médias traditionnels, du fait de la désaffection des lecteurs et du boom des contenus gratuits sur internet. Ainsi, Grégoire Lemarchand estime que «c’est peut être une chance» pour les grandes agences de photos qui pourraient «ajouter un tag pour les images vraies», un «AI free» (libre d’IA), et ainsi économiquement «capitaliser sur le vrai». «Le faux est devenu tellement simple à générer qu’il se crée (…) un marché fantastique pour les vecteurs de vrai (…) pour les médias (…) qui ne savent pas comment monétiser leur existence à l’heure du web», a ajouté Niels Ackermann.