Les fausses vidéos parfaites seront reconnues par l'intelligence artificielle
Les fausses vidéos parfaites seront reconnues par l'intelligence artificielle

Vidéo: Les fausses vidéos parfaites seront reconnues par l'intelligence artificielle

Vidéo: Les fausses vidéos parfaites seront reconnues par l'intelligence artificielle
Vidéo: LE MONDE SUBATOMIQUE - YouTube 2024, Avril
Anonim
La première de l'opéra sur l'empoisonnement de Litvinenko commence en Angleterre
La première de l'opéra sur l'empoisonnement de Litvinenko commence en Angleterre

Il y a un an, Manish Agrawala de Stanford a aidé à développer une technologie de synchronisation labiale qui a permis aux éditeurs vidéo de modifier les paroles des locuteurs de manière presque imperceptible. L'outil pourrait facilement insérer des mots qu'une personne n'a jamais prononcés, même au milieu d'une phrase, ou supprimer des mots qu'il a dit. Tout semblera réaliste à l'œil nu et même à de nombreux systèmes informatiques.

Cet outil a permis de corriger beaucoup plus facilement les erreurs sans re-tourner des scènes entières, et a également adapté des émissions de télévision ou des films pour différents publics dans différents endroits. Mais cette technologie a également créé de nouvelles opportunités inquiétantes pour les fausses vidéos difficiles à trouver, avec l'intention claire de déformer la vérité. Par exemple, une vidéo républicaine récente a utilisé une technique plus grossière pour une interview avec Joe Biden.

Cet été, Agrawala et ses collègues de Stanford et UC Berkeley ont dévoilé une approche basée sur l'intelligence artificielle pour la technologie de synchronisation labiale. Le nouveau programme détecte avec précision plus de 80 pour cent des contrefaçons, reconnaissant les plus petits écarts entre les sons des gens et la forme de leur bouche.

Mais Agrawala, directeur du Stanford Institute for Media Innovation et professeur d'informatique à Forest Baskett, qui est également affilié au Stanford Institute for Human-Centered Artificial Intelligence, prévient qu'il n'y a pas de solution technique à long terme aux contrefaçons profondes.

Comment fonctionnent les faux

Il existe des raisons légitimes à la manipulation vidéo. Par exemple, toute personne filmant une émission de télévision, un film ou une publicité fictive peut gagner du temps et de l'argent en utilisant des outils numériques pour corriger les erreurs ou personnaliser les scripts.

Le problème se pose lorsque ces outils sont délibérément utilisés pour diffuser de fausses informations. Et de nombreuses techniques sont invisibles pour le spectateur moyen.

De nombreuses fausses vidéos profondes reposent sur des échanges de visages, superposant littéralement le visage d'une personne sur la vidéo d'une autre personne. Mais si les outils de changement de visage peuvent être convaincants, ils sont relativement bruts et laissent généralement des artefacts numériques ou visuels qu'un ordinateur peut détecter.

En revanche, les technologies de synchronisation labiale sont moins visibles et donc plus difficiles à détecter. Ils manipulent une partie beaucoup plus petite de l'image, puis synthétisent les mouvements des lèvres qui correspondent exactement à la façon dont la bouche d'une personne bougerait réellement si elle prononçait certains mots. Selon Agrawal, avec suffisamment d'échantillons de l'image et de la voix d'une personne, un faux producteur peut faire « dire » n'importe quoi à une personne.

Détection de contrefaçon

Préoccupé par l'utilisation contraire à l'éthique d'une telle technologie, Agrawala a travaillé avec Ohad Freed, doctorant à Stanford, pour développer un outil de détection; Hani Farid, professeur à l'Université de Californie, Berkeley School of Information; et Shruti Agarwal, doctorante à Berkeley.

Au début, les chercheurs ont expérimenté une technique purement manuelle dans laquelle les observateurs ont étudié des séquences vidéo. Cela fonctionnait bien, mais dans la pratique, cela demandait beaucoup de travail et de temps.

Les chercheurs ont ensuite testé un réseau de neurones basé sur l'intelligence artificielle qui serait beaucoup plus rapide pour faire la même analyse après une formation en vidéo avec l'ancien président Barack Obama. Le réseau de neurones a détecté plus de 90 pour cent de la synchronisation labiale d'Obama, bien que la précision pour les autres haut-parleurs soit tombée à environ 81 pour cent.

Un vrai test de la vérité

Les chercheurs disent que leur approche n'est qu'une partie du jeu du chat et de la souris. À mesure que les techniques de falsification en profondeur s'améliorent, elles laisseront encore moins de clés.

En fin de compte, dit Agrawala, le vrai problème n'est pas tant de lutter contre les vidéos profondément fausses que de lutter contre la désinformation. En fait, note-t-il, une grande partie de la désinformation provient de la distorsion du sens de ce que les gens ont réellement dit.

« Pour réduire la désinformation, nous devons améliorer l'éducation aux médias et développer des systèmes de responsabilisation », dit-il. "Cela peut signifier des lois interdisant la production délibérée de désinformation et les conséquences de leur violation, ainsi que des mécanismes pour éliminer les dommages qui en résultent."

Conseillé: