Face à la déferlante des deepfakes, des solutions émergent dans le monde de la tech

A AFP journalist views a video on January 25, 2019, manipulated with artificial intelligence to potentially deceive viewers, or "deepfake" at his newsdesk in Washington, DC. "Deepfake" videos that manipulate reality are becoming more sophisticated and realistic as a result of advances in artificial intelligence, creating a potential for new kinds of misinformation with devastating consequences. (Photo by Alexandra ROBINSON / AFP) / TO GO WITH AFP STORY by Rob LEVER "Misinformation woes may multiply with ‘deepfake’ videos"

Des solutions émergent dans le monde de la tech pour combattre les deepfakes, fausses vidéos ou voix synthétiques que l’IA générative a démocratisées, avec l’objectif d’empêcher arnaques en tout genre. «C’est moi. (…) J’ai eu un accident». A l’autre bout du fil, Laurel entend la voix de sa mère, Debby Bodkin, qui lui explique être à l’hôpital. La jeune femme a le réflexe de raccrocher et d’appeler Debby qui, en réalité, est à son bureau, indemne. Par chance, Laurel se trouvait chez sa grand-mère, Ruthy, 93 ans, à laquelle était destiné l’appel et la tentative d’arnaque qui aurait suivi. «Les tentatives sont quotidiennes», explique Debby, qui vit en Californie. «L’IA peut être très dangereuse». Popularisés sur les réseaux sociaux par le détournement de personnalités, parfois à des fins de désinformation, les deepfakes sont aussi exploités par le crime organisé. Début février, la police de Hong Kong a révélé qu’un employé d’une multinationale avait été convaincu de transférer 200 millions de dollars hongkongais (25 millions de dollars américains) à des escrocs qui avaient organisé une visioconférence avec des avatars IA plus vrais que nature de plusieurs de ses collègues. Une étude publiée en février par la startup iBoom, spécialisée dans l’identification, montre que seulement 0,1% des Américains et des Britanniques testés étaient capables de repérer correctement une fausse image ou vidéo. Il y a moins de dix ans, «il n’y avait qu’un outil» pour générer une voix par IA, appelé Lyrebird, explique Vijay Balasubramaniyan, patron de Pindrop Security, spécialiste de l’authentification vocale. «Aujourd’hui, il y en a 490». L’arrivée de l’IA générative a changé la donne. «Avant», se souvient le responsable, «il fallait 20 heures (d’enregistrements) pour recréer votre voix. Aujourd’hui, c’est 5’’». Plusieurs prestataires proposent aux entreprises de repérer, en temps réel, les faussaires IA, que ce soit en audio ou en vidéo, tels Reality Defender ou Intel. Ce dernier utilise les changements de couleur des vaisseaux sanguins du visage pour son outil FakeCatcher, tandis que Pindrop décompose en 8.000 extraits chaque seconde d’audio et les compare aux caractéristiques d’une voix humaine. «C’est comme toute société de cybersécurité, il faut rester à la page», relève Nicos Vekiarides, patron d’Attestiv. «Au début, on voyait des gens avec une main à six doigts, mais les progrès ont fait que c’est de plus en plus difficile de dire à l’oeil nu». Pour Vijay Balasubramaniyan, à terme, toutes les entreprises vont devoir se doter de logiciels d’identification des contenus IA. Au-delà des secteurs de la finance et des assurances, victimes traditionnelles de fraudes, «cela devient une menace globale de cybersécurité», prévient Nicos Vekiarides. Selon lui, «n’importe quelle entreprise peut voir sa réputation ternie par un deepfake ou être visée par ces attaques sophistiquées». M. Balasubramaniyan souligne que l’augmentation du télétravail accroît encore les risques d’usurpation d’identité. Et le spectre pourrait s’étendre au grand public, sous la menace d’appels trafiqués, particulièrement les plus âgés. En janvier, le fabricant chinois Honor a présenté son nouveau smartphone, le Magic7, capable de repérer et de signaler, en temps réel, que l’interlocuteur utilise l’IA lors d’un appel vidéo. Fin 2024, la startup britannique Surf Security a mis sur le marché un navigateur internet, pour l’instant destiné uniquement aux entreprises, à même d’alerter l’utilisateur lorsqu’une voix ou une vidéo paraît avoir été générée par IA. Attestiv affirme avoir déjà des milliers d’utilisateurs particuliers de sa formule gratuite. Pour Siwei Lyu, professeur d’informatique à l’université publique de Buffalo, «les deepfakes vont devenir comme les spams», cauchemar des 1ers internautes aujourd’hui quasiment sous contrôle, grâce à l’efficacité des logiciels de tri des courriels.