Notebookcheck Logo

Le DARPA publie des outils de détection des "deepfakes" et lance des défis collaboratifs pour en développer d'autres

La DARPA publie des outils de deepfake pour aider à contrer les fausses images, voix et informations de l'IA. (Source : DARPA)
La DARPA publie des outils de deepfake pour aider à contrer les fausses images, voix et informations de l'IA. (Source : DARPA)
La DARPA a publié ses outils de détection de deepfake développés dans le cadre de son programme Semantic Forensics pour contrer les menaces de l'IA. Près de deux douzaines d'outils permettent de détecter les photos et les vidéos truquées ainsi que les textes et les voix générés par l'IA. Les défis AI FORCE lancés toutes les quatre semaines encouragent les chercheurs publics à contribuer à l'élaboration de solutions innovantes pour contrer la menace de l'IA générative.

La DARPA (Agence américaine pour les projets de recherche avancée de défense) a mis à la disposition du public ses outils de détection des "deepfakes" développés dans le cadre de son programme Semantic Forensics (SemaFor). L'agence a mis à disposition près de deux douzaines d'outils sous licence permissive ou ouverte pour détecter les photos et vidéos truquées ainsi que les textes et les voix générés par l'IA. Pour encourager la poursuite du développement, une série de défis collaboratifs seront lancés toutes les quatre semaines dans le cadre du programme AI Forensics Open Research Challenge Evaluations (AI FORCE) afin de contribuer à la mise au point de nouveaux outils et algorithmes pour contrer la menace de l'IA.

La boîte de Pandore de l'IA a été ouverte lorsque l'ingénieur de Google Blake Lemoine a affirmé en 2022 que l'IA LaMDA de Google savait qu'elle était sensible. Quelle que soit la définition de la vie artificielle, les utilisateurs de l'IA peuvent certainement constater que ses capacités sont vastes et souvent supérieures à celles des humains. Les lecteurs qui ont vu The Terminator ou Ghost in the Shell reconnaîtront également que la menace de l'IA, qu'elle soit initiée par ses utilisateurs ou par elle-même, est grande.

La mission de la DARPA "réaliser des investissements cruciaux dans des technologies de pointe pour la sécurité nationale" l'a amenée à se pencher sur le problème des menaces liées à l'IA dans le cadre de son programme SemaFor. L'agence a mis au point un catalogue analytique de 19 composants, auxquels d'autres viendront s'ajouter au fil du temps. Tous les composants sont en libre accès afin de diffuser auprès du public les outils nécessaires à la lutte contre l'IA.

Ces outils comprennent le code et les algorithmes mis au point pour détecter les menaces liées à l'IA, telles que fake news et textes postés par l'IA sur Twitter et ailleurs, faux appels du président Bidenet les fausses photos du pape créées par des outils génératifs tels que Midjourney.

La DARPA espère également collaborer avec les chercheurs et les développeurs publics dans le cadre de son programme AI FORCE en ciblant un nouveau domaine d'intérêt toutes les quatre semaines afin d'encourager l'innovation. Les lecteurs qui souhaitent développer des outils de contre-ingérence auront besoin d'une carte graphique Nvidia rapide(comme celle-ci sur Amazon).

La technologie Deepfake Defense prête pour la commercialisation et la transition

Afin de favoriser la transition des technologies de criminalistique sémantique vers l'industrie et le gouvernement, la DARPA va lancer des initiatives visant à renforcer les défenses contre les médias manipulés

[email protected]/14/2024

La menace que représentent les médias manipulés n'a cessé de croître à mesure que les technologies de manipulation automatisée devenaient plus accessibles et que les médias sociaux continuaient d'offrir un environnement propice au partage de contenu viral.

La vitesse, l'échelle et l'ampleur des campagnes de désinformation massive nécessitent des défenses informatiques et des algorithmes automatisés pour aider les humains à discerner ce qui est réel et ce qui a été manipulé ou synthétisé, pourquoi et comment.

Grâce au programme Semantic Forensics (SemaFor), https://www.darpa.mil/program/semantic-forensics (SemaFor), et précédemment le programme Media Forensics les investissements de recherche de la DARPA dans la détection, l'attribution et la caractérisation des médias manipulés et synthétisés, connus sous le nom de "deepfakes", ont donné lieu à des centaines d'analyses et de méthodes qui peuvent aider les organisations et les individus à se protéger contre la multitude de menaces que représentent les médias manipulés.

Avec SemaFor dans sa phase finale, les investissements de la DARPA ont systématiquement réduit les risques de développement, ouvrant la voie à une nouvelle ère de défenses contre la menace croissante des "deepfakes". Aujourd'hui, l'agence appelle la communauté élargie - y compris l'industrie commerciale et les universités qui font de la recherche dans ce domaine - à tirer parti de ces investissements.

Pour soutenir cette transition, l'agence lance deux nouvelles initiatives afin d'aider l'ensemble de la communauté à poursuivre l'élan de défense contre les médias manipulés.

Le premier comprend un catalogue analytique https://semanticforensics.com/ contenant des ressources libres développées dans le cadre de SemaFor à l'intention des chercheurs et de l'industrie. Ces ressources seront ajoutées à ce catalogue au fur et à mesure qu'elles arriveront à maturité et qu'elles seront disponibles.

Le second sera un effort de recherche communautaire ouvert appelé AI Forensics Open Research Challenge Evaluation (AI FORCE), qui vise à développer des modèles innovants et robustes d'apprentissage automatique, ou d'apprentissage profond, capables de détecter avec précision des images synthétiques générées par l'IA. À travers une série de mini-défis, AI FORCE demande aux participants de construire des modèles capables de distinguer les images authentiques, y compris celles qui ont pu être manipulées ou éditées à l'aide de méthodes non IA, des images synthétiques générées par l'IA. Cet effort sera lancé la semaine du 18 mars et sera lié à la page du programme SemaFor ( ). Les personnes souhaitant être informées peuvent s'inscrire à la lettre d'information de l'Information Innovation Office à l'adresse https://lp.constantcontactpages.com/su/9rZHGPf à la lettre d'information de l'Information Innovation Office.

Selon les chercheurs du DARPA et de SemaFor, un effort concerté entre le secteur commercial, les organisations médiatiques, les chercheurs et développeurs externes et les décideurs politiques est nécessaire pour développer et déployer des solutions qui combattent les menaces des médias manipulés. SemaFor fournit les outils et les méthodes nécessaires pour aider les personnes confrontées à ce problème.

"Nos investissements ont permis de créer un espace d'opportunités opportun, nécessaire et prêt à se développer", a déclaré Wil Corvey, directeur du programme Semantic Forensics de l'Agence pour la recherche et le développement technologique (DARPA). "Avec l'aide de l'industrie et des universités du monde entier, le programme Semantic Forensics est prêt à partager ce que nous avons commencé pour renforcer l'écosystème nécessaire à la défense de l'authenticité dans un monde numérique

Pour plus d'informations sur les efforts et les ressources susmentionnés, consultez les sites https://www.darpa.mil/program/semantic-forensics et https://semanticforensics.com/.

Pour en savoir plus sur le programme SemaFor et avoir un aperçu des technologies qui en découlent, consultez l'épisode de Voices from DARPA intitulé "Demystifying Deepfakes" à l'adresse https://www.darpa.mil/news-events/2023-06-16

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2024 06 > Le DARPA publie des outils de détection des "deepfakes" et lance des défis collaboratifs pour en développer d'autres
David Chien, 2024-06- 3 (Update: 2024-06- 3)