Microsoft vient de lancer une nouvelle technologie appelée Microsoft Video Authenticator, conçue pour aider à lutter contre la fraude, en utilisant de fausses informations, des images et même des vidéos (technique deepfake ) pour diffuser des informations et de la désinformation, notamment à la lumière de la prochaine élection présidentielle aux États-Unis.
Deepfake et problèmes existants
Deepfake (un mot-valise de « deep learning » et de « faux ») est une technique de synthèse d’images humaines basée sur l’intelligence artificielle (IA). Il est utilisé pour combiner et superposer d'autres images et vidéos sur des images ou des vidéos sources à l'aide d'une technique d'apprentissage automatique appelée Generative Adversarial Network.). En termes plus simples, deepfake est un programme qui utilise l'intelligence artificielle, permettant aux utilisateurs d'échanger le visage de quelqu'un dans une vidéo (et même des images) avec le visage de quelqu'un d'autre.
En raison de ces capacités, le deepfake est souvent utilisé par des méchants pour créer de fausses nouvelles et des escroqueries visant à diffamer et à affecter la réputation d'individus, d'organisations, en particulier de célébrités. Cela porte non seulement atteinte à l’honneur et à la dignité de la personne forgée, mais provoque également l’émoi de l’opinion publique et provoque de nombreuses controverses, voire pires conflits.

Analyser les vidéos deepfakes
Authentificateur vidéo Microsoft
Le fonctionnement de Microsoft Video Authenticator n'a fondamentalement rien de compliqué, il utilise un algorithme pour analyser des images fixes ou des vidéos à un niveau de pixel invisible à l'œil nu, pour donner un pourcentage de chance d'association ou un score de confiance, indiquant la probabilité que cela se produise. est que l’image ou la vidéo est falsifiée par deepfake. En particulier pour les vidéos, l'outil peut fournir des scores d'évaluation en temps réel sur chaque image afin de fournir les résultats les plus précis.
Cette technologie a été développée par l'équipe Microsoft Research en collaboration avec le comité Microsoft AI, Ethics and Effects in Engineering and Research. Dans un premier temps, il ne sera pas rendu public directement, mais sera seulement appliqué à titre expérimental dans certaines agences et organisations. Microsoft s'associe actuellement à la AI Foundation, une entreprise commerciale et à but non lucratif basée à San Francisco, pour déployer les tests Microsoft Video Authenticator sur un certain nombre de plateformes d'information et de campagnes politiques.
Cependant, une limite de cette technologie est qu’elle risque de devenir rapidement obsolète à mesure que la technologie des deepfakes continuera de gagner en sophistication. Microsoft a annoncé un système distinct qui permettra aux producteurs de contenu d'ajouter du code caché à leurs images afin que toute falsification puisse être signalée, et intensifie ses partenariats avec diverses sociétés de médias, comme la BBC, CBC/Radio-Canada et le New York Times. .. pour tester la technologie et en faire la norme.
- Cette application dangereuse peut « pénétrer » dans les vêtements des femmes en quelques secondes seulement grâce à la technologie deepfake