Teddy FURON, alumni du SIEN, lauréat du prix de l'INRIA
Avec l'essor de l’intelligence artificielle générative, la falsification des contenus numériques (textes, photos, vidéos) est une menace réelle. Les solutions développées par Teddy FURON, ancien élève du département d’enseignement et de recherche Sciences de l'ingénierie électrique et numérique (SIEN, anciennement EEA et Nikola Tesla) et directeur de recherche Inria à l'Institut de recherche en informatique et systèmes aléatoires (IRISA - CNRS/Université de Rennes), ont été distinguées par le Prix de l’innovation Inria – Académie des sciences – Dassault Systèmes en novembre 2025.
Le Prix de l’innovation Inria – Académie des sciences – Dassault Systèmes
Protéger les contenus numériques, sécuriser l'IA et détecter la désinformation
Les deepfakes, Images fabriquées, vidéos truquées, articles générés artificiellement… prolifèrent sur les réseaux sociaux, relayés par des millions d'utilisateurs. La désinformation explose avec l’essor de l’intelligence artificielle génératives, capables de produire des contenus difficilement discernables du réel. Ce phénomène inquiète, et beaucoup s'interrogent sur les moyens de contrer cette vague de deepfakes.
Le Prix de l’innovation Inria – Académie des sciences – Dassault Systèmes récompense Teddy FURON pour l'ensemble de ses travaux, toujours menés dans la perspective de donner naissance à des innovations.
Teddy FURON
Teddy Furon est un ancien élève du Département d’enseignement et de recherche (DER) Sciences de l'ingénierie électrique et numérique (SIEN), anciennement EEA et Nikola Tesla (promotion 1998).
Il est est aujourd’hui directeur de recherche à l’Inria, à l'Institut de recherche en informatique et systèmes aléatoires (IRISA - CNRS/Université de Rennes).
Il s’intéresse à la sécurité des contenus multimédia avec des applications comme le tatouage numérique et le traçage de traitres.
Il a réalisé plusieurs avancées dans ce domaine, en développant notamment la sécurité du tatouage face aux attaques.
En 2015, il confonde la start-up Imatag, qui a notamment développé le tatouage de clichés numériques permettant aux photographes d'agences de presse de revendiquer leurs images et faire valoir leurs droits.
Intégrer un marquage numérique au moment de la création d'image ou de vidéo
En 2024, il confonde la start-up Label4.ai, qui développe des technologies pour le tatouage de contenus créés par une IA générative. Il ne s'agit plus, par exemple, de marquer des images existantes mais d'intégrer un marquage au moment de leur création. L’objectif est d’intégrer systématiquement un tatouage numérique dans les outils d’IA générative afin d’identifier les images, vidéos, textes comme issus de l’IA.
La législation devrait les y contraindre, au moins en Europe dans le cadre de l'AI Act qui doit entrer en vigueur en 2026.
Sécuriser les marqueurs contre les cyber-attaques
Sécuriser l'IA est un autre axe majeur de recherche. En effet, la sécurisation du tatouage numérique doit prendre également en compte les éventuelles attaques qui pourraient déjouer le tatouage numérique. Toute la chaîne d'élaboration d'une application doit être sécurisée, y compris les données d'entraînement, qui pourraient être corrompues par une attaque malveillante.
Créer des tests d'évaluation garant de la conformité d'une IA
L'équipe Artishau, menée par Teddy FURON, développe également des outils d'audit d'algorithmes « en boîte noire ». Des tests permettent d'évaluer qu'une IA est en conformité avec la législation en vigueur, ou qu'elle n'introduit pas de biais discriminatoires. La mise au point de ces outils pose de nombreuses questions : comment s'assurer qu'ils restent indétectables par le propriétaire de l'algorithme ? Comment identifier les évolutions de l'algorithme au cours du temps ?
Plusieurs collaborations avec des grandes entreprises (Thales, Alcatel-Nokia, Meta) permettent aux scientifiques d'aborder ces sujets en prise direct avec les besoins du monde économique et de la société.