Pour lutter contre les deepfakes, nos technologies doivent suivre leurs transformations

Pour lutter contre les deepfakes, nos technologies doivent suivre leurs transformations

Dans l’enregistrement vidéo de la guerre en Ukraine, une tentative maladroite de “deepfake” le président ukrainien Volodymyr Zelensky coexiste avec des preuves vidéo critiques sur le terrain d’abus, une désinformation omniprésente pour attirer l’attention et des opérations russes sous fausse bannière.

Ces scènes de la guerre donnent un aperçu d’un avenir où, parallèlement aux formes existantes de manipulation et d’attribution erronée, la technologie deepfake – des images qui ont été “modifiées et manipulées de manière convaincante pour déformer quelqu’un faisant ou disant quelque chose qui n’a pas été fait ou dit” – sera être plus facilement employé. Plus de fausses vidéos seront falsifiées et le «dividende du menteur» sera utilisé pour jeter le doute sur les vidéos authentiques.

Un ensemble de solutions à ces problèmes actuels et futurs propose de mieux suivre d’où viennent les médias, ce qui est synthétisé, édité ou modifié, et comment. Cette infrastructure « d’authenticité et de provenance » mérite une attention particulière quant à ses possibilités et un travail préventif sur ses risques.

En janvier, la Coalition for Content Provenance and Authenticity (C2PA) dirigée par la BBC, Microsoft, Adobe, Intel, Twitter, TruePic, Sony et Arm, a proposé les premières normes techniques mondiales pour mieux suivre quel contenu est authentique et ce qui est manipulé. Les spécifications fournissent un moyen de suivre les origines et les modifications apportées à un contenu multimédia, de la capture sur une caméra au montage en passant par la distribution par les principaux médias ou sur un flux de médias sociaux. Les entreprises commencent maintenant à créer des outils basés sur ces normes sous-jacentes.

Nous devons faire plus pour mettre à disposition une infrastructure d’authenticité – ce qui se passe en Ukraine souligne ce besoin. Cependant, nous devons garder au premier plan les contextes et usages mondiaux à haut risque, les principes critiques des droits de l’homme et les risques potentiels – et c’est pourquoi, chez WITNESS, nous avons rejoint C2PA et dirigé son groupe de travail sur les menaces et les préjudices.

La question doit toujours être la suivante : comment garantir que ces solutions techniques pour renforcer la confiance dans les médias aident plutôt qu’elles ne nuisent ? Sur la base de près de cinq années de travail à l’avant-garde de ce problème, nous identifions quatre problèmes fondamentaux : le besoin d’anonymat et de rédaction, le rôle des plateformes et des signaux d’acceptation, l’accès sécurisé dans des contextes mondiaux et la nécessité d’éviter les abus par les gouvernements. .

Instaurer la confiance dans le contenu doit permettre l’anonymat et la rédaction. Un documentaliste des droits de l’homme en Ukraine ne peut être tenu de partager publiquement son nom et son emplacement exact comme condition préalable à son utilisation. Ils doivent également être capables de flouter les visages ou de créer des versions expurgées de leurs médias. L’immuabilité et l’incapacité d’éditer sont des recettes pour le désastre. Les leçons tirées des politiques de la plate-forme autour des «vrais noms» nous disent que de nombreuses personnes – par exemple, les survivantes de violence domestique – sont confrontées à des circonstances similaires dont nous devrions tirer des leçons. Nous soutenons la façon dont les spécifications C2PA se concentrent sur la protection de la vie privée et n’exigent pas de divulgation d’identité, mais nous devons être prudents quant à la façon dont la mise en œuvre peut compromettre cela.

Les plateformes doivent également réfléchir à la manière dont elles intègrent ces types de signaux. Facebook, TikTok, YouTube et d’autres plateformes n’offrent actuellement aucune option prête à l’emploi pour aider les téléspectateurs à comprendre si des vidéos ou des images sont décontextualisées et mal interprétées. Ils ne fournissent ni recherche inversée d’images et de vidéos qui montre les versions précédentes des médias existants en ligne, ni signalisation basée sur les spécifications C2PA. Cependant, tournez-vous vers #Ukraine, et nous voyons des vidéos d’il y a des années ou de différents endroits revendiqués comme actuels, et de l’audio remixé sur différentes vidéos sur TikTok. Une transparence accrue sur la façon dont les médias sont créés et d’où ils viennent est une aide essentielle aux compétences en éducation aux médias.

Enfin, le C2PA souligne que la compréhension des origines et des montages d’une vidéo ne vous dit pas si le média est factuellement exact ou éditorialement fiable, et nous sommes d’accord. Toute information d’identification sur le contenu doit être une aide pour aider à prendre des décisions éclairées, et non un signal de vérité simpliste. Nous devons toujours considérer ces informations d’identification à travers le prisme de qui y a accès dans divers contextes mondiaux et de sécurité. Nous ne pouvons pas discréditer un journaliste citoyen ou une personne ordinaire dans une ville assiégée pour ne pas utiliser de tels outils, alors que nous étayons le contenu d’un journaliste grand public pour une chaîne de télévision parrainée par l’État qui l’utilise. Leur journalisme peut être fondamentalement peu fiable même si leurs médias sont bien documentés du point de vue de la provenance.

Aux États-Unis, le Deepfake Task Force Act du sénateur Rob Portman (R-Ohio) propose des recherches sur la provenance numérique, et les gouvernements responsables devraient réfléchir à la manière d’utiliser le C2PA et des normes similaires. Mais adopter une loi sur les “fausses nouvelles” ou sur la sécurité en ligne pour rendre obligatoire l’utilisation de ces technologies serait un pas terrible dans la mauvaise direction, sapant la nécessité que les technologies soient facultatives et non coercitives.

Ces normes seront maltraitées et des failles seront trouvées par de mauvais acteurs. Pourtant, une solution partielle est toujours un pas dans la bonne direction. Chez WITNESS, nous avons mené une initiative au cours des quatre dernières années axée sur le risque croissant de deepfakes. Les défis de comprendre ce que nous voyons et entendons augmenteront à mesure que les tendances à l’amélioration de la falsification numérique s’accumuleront sur les problèmes existants de «shallowfakes» mal identifiés et mal caractérisés – des images qui sont modifiées de manière sélective avec des outils de montage photo et vidéo.

L’infrastructure émergente d’authenticité et de provenance peut aider à résoudre notre crise croissante de confiance dans les médias audiovisuels. Désormais, la clé est de défendre les valeurs des droits de l’homme que sont l’accès équitable à la technologie, la liberté d’expression et la vie privée. Nous avons besoin de garde-fous et de chiens de garde pour les technologies de confiance. Ces outils réussiront ou échoueront en fonction de la manière dont ils serviront les personnes les plus vulnérables défendant leur vérité dans les rues d’Ukraine ou dans l’arrière-pays de nombreuses autres zones de conflit : ce sont eux qui ont le plus à gagner et le plus à perdre.

Sam Gregory est le directeur des programmes, de la stratégie et de l’innovation de TÉMOINune organisation de défense des droits humains avec une expérience mondiale travaillant sur la façon dont les personnes en crise s’assurent que leurs vidéos sont fiables et plus probantes.

Related posts

L’expert de Wolters Kluwer Compliance Solutions partage ses connaissances sur la technologie eVaulting

cialiszep

Le Battery Show et l’Electric & Hybrid Vehicle Technology Expo North America font salle comble 2022 Expo Show Floor

cialiszep

(Awful) TRAVEL TECHNOLOGY – Casque sans fil Vido Sound

cialiszep

Volodymyr Zelensky sur la guerre, la technologie et l’avenir de l’Ukraine

cialiszep

Exela Technologies annonce la nomination d’un nouveau directeur de la technologie

cialiszep

Silicon Motion Technology Co. (NASDAQ:SIMO) devrait afficher des ventes trimestrielles de 263,42 millions de dollars

cialiszep