Un règlement européen destiné à lutter contre la diffusion d’images et vidéos à caractère pédocriminel est bloqué par une partie des pays de l’UE, qui redoutent une surveillance généralisée des communications privées. Les ministres européens de l’Intérieur devaient faire un point sur ce texte controversé lors d’une réunion jeudi à Luxembourg mais aucune décision n’est prévue à ce stade. Présentée en mai 2022 par la Commission européenne, la proposition de règlement vise à lutter contre la prolifération d’images et vidéos d’abus sexuels sur des enfants, et contre la sollicitation d’enfants par des pédocriminels («grooming»). Elle permet d’obliger les plateformes et services de messagerie en ligne à détecter puis signaler de tels contenus. Mais les autorités européennes chargées de la protection des données, des eurodéputés et certains Etats membres dont l’Allemagne, estiment qu’elle constitue une atteinte «disproportionnée» au respect de la vie privée et s’inquiètent de la fin de la confidentialité des correspondances, puisque les messageries chiffrées (Signal, Telegram, WhatsApp…) seraient aussi concernées. Les réticences portent aussi sur des erreurs possibles liées à l’utilisation de l’IA pour détecter les contenus pédocriminels. Actuellement, la détection de ces contenus par les plateformes se fait sur une base volontaire, ce qui s’avère largement insuffisant étant donné l’ampleur du problème, souligne l’UE. Le régime en vigueur court jusqu’en avril 2026, en attendant l’adoption du nouveau règlement qui ferait de cette détection une obligation légale pour tous. La proposition de règlement contraint les fournisseurs de services de communication à prendre des mesures préventives afin d’éviter la diffusion de photos ou vidéos à caractère pédophile. Lorsqu’il existe un risque important qu’un service soit utilisé à mauvais escient, une autorité judiciaire ou autorité administrative indépendante pourrait émettre une injonction de détection. Le fournisseur aurait alors l’obligation d’analyser automatiquement le contenu des communications via ce service. Le projet prévoit que ces contenus illégaux, une fois repérés, devront être signalés à un nouveau Centre européen de prévention et de lutte contre les abus sexuels sur les enfants, qui procèdera à une vérification et les enverra aux autorités de police compétentes et à Europol. En novembre, le Parlement européen a amendé la proposition de la Commission pour limiter la portée de ces injonctions de surveillance aux utilisateurs soupçonnés de tels agissements, et en excluant les communications chiffrées de bout en bout de ces obligations de détection. C’est désormais aux Etats membres de se prononcer sur le texte. La Belgique, qui exerce la présidence du Conseil de l’UE jusqu’à fin juin, a proposé un texte de compromis mais qui n’a jusqu’ici pas recueilli la majorité qualifiée nécessaire. Le compromis proposé prévoit des mesures pour tenter de répondre aux inquiétudes exprimées. La position de la France, qui n’est pas encore arrêtée, pourrait faire pencher la balance, selon des sources diplomatiques. Début juin, plusieurs associations de protection de l’enfance – Ecpat France, BeBrave, la Fondation pour l’Enfance, Cameleon, Point de Contact, Elien Rebirth et les Amis de Romy – ont appelé Paris à soutenir ce règlement. Selon un rapport publié par la Commission en décembre, Meta a détecté en 2022 sur les messageries Messenger et Instagram plus de 6,6 millions d’images ou vidéos relatives à des abus sexuels sur des enfants impliquant un utilisateur dans l’UE, et X a fermé 2,3 millions de comptes d’utilisateurs en lien avec l’exploitation sexuelle d’enfants. La Commission souligne que les détections en ligne permettent de contribuer à identifier des milliers d’enfants victimes de tels abus dans l’UE, et de mener à des condamnations des auteurs de ces agissements.