Une attention bien plus grande a été accordée aux séquences suspectées qui ne portaient aucun signe de falsification de l’IA, comme la vidéo du directeur d’un hôpital bombardé à Gaza donnant une conférence de presse – qualifiée de « générée par l’IA » par certains – qui a été filmée depuis différents points de vue par plusieurs sources.
D’autres exemples sont plus difficiles à catégoriser : l’armée israélienne a publié un enregistrement de ce qu’elle décrit comme une conversation sur écoute entre deux membres du Hamas, mais ce que certains auditeurs ont dit était un son falsifié (le New York Times, la BBC et CNN ont rapporté qu’ils n’avaient pas encore pour vérifier la conversation).
Pour tenter de discerner la vérité de l’IA, certains utilisateurs de médias sociaux se sont tournés vers des outils de détection, qui prétendent détecter les manipulations numériques mais se sont révélés loin d’être fiables. Un test du Times a révélé que les détecteurs d’images avaient des antécédents inégaux, diagnostiquant parfois à tort des images qui étaient manifestement des créations de l’IA, ou qualifiant de vraies photos d’inauthentiques.
Dans les premiers jours de la guerre, M. Netanyahu a partagé une série d’images sur X, affirmant qu’il s’agissait de « photos horribles de bébés assassinés et brûlés » par le Hamas. Quand le commentateur conservateur Ben Shapiro amplifié l’une des images sur X, il a été accusé à plusieurs reprises de diffuser du contenu généré par l’IA.
Un message, qui a recueilli plus de 21 millions de vues avant d’être supprimé, prétendait avoir la preuve que l’image du bébé était fausse : une capture d’écran d’AI or Not, un outil de détection, identifiant l’image comme « générée par l’IA ». L’entreprise a ensuite corrigé cette conclusion sur X, affirmant que son résultat était « non concluant » car l’image avait été compressée et modifiée pour obscurcir les détails d’identification ; la société a également déclaré avoir peaufiné son détecteur.
“Nous avons réalisé que chaque technologie créée avait, à un moment donné, été utilisée à des fins malveillantes”, a déclaré Anatoly Kvitnitsky, directeur général d’AI or Not, société basée dans la région de la baie de San Francisco et comptant six employés. « Nous sommes arrivés à la conclusion que nous essayons de faire le bien, que nous allons maintenir le service actif et faire de notre mieux pour nous assurer que nous sommes des pourvoyeurs de vérité. Mais nous y avons réfléchi : est-ce que nous provoquons plus de confusion, plus de chaos ?
AI or Not s’efforce de montrer aux utilisateurs quelles parties d’une image sont soupçonnées d’être générées par l’IA, a déclaré M. Kvitnitsky.
Les services de détection d’IA disponibles pourraient potentiellement être utiles dans le cadre d’une suite plus large d’outils, mais sont dangereux lorsqu’ils sont traités comme le dernier mot en matière d’authenticité du contenu, a déclaré Henry Ajder, un expert en médias manipulés et synthétiques.
Les outils de détection des Deepfakes, a-t-il déclaré, « fournissent une fausse solution à un problème beaucoup plus complexe et difficile à résoudre ».
Plutôt que de s’appuyer sur des services de détection, des initiatives telles que la Coalition for Content Provenance and Authenticity et des sociétés comme Google explorent des tactiques permettant d’identifier la source et l’historique des fichiers multimédias. Les solutions sont loin d’être parfaites – deux groupes de chercheurs ont récemment découvert que la technologie de filigrane existante est facile à supprimer ou à contourner – mais les partisans affirment qu’elles pourraient contribuer à restaurer une certaine confiance dans la qualité du contenu.
« Prouver ce qui est faux sera une entreprise inutile et nous allons simplement faire bouillir l’océan en essayant de le faire », a déclaré Chester Wisniewski, cadre de la société de cybersécurité Sophos. “Cela ne fonctionnera jamais, et nous devons simplement redoubler d’efforts pour commencer à valider ce qui est réel.”
Pour l’instant, les utilisateurs des réseaux sociaux qui cherchent à tromper le public s’appuient beaucoup moins sur des images photoréalistes de l’IA que sur d’anciennes images de conflits ou de catastrophes précédentes, qu’ils présentent à tort comme la situation actuelle à Gaza, selon Alex Mahadevan, directeur du Poynter. programme d’éducation aux médias MediaWise.
« Les gens croiront tout ce qui confirme leurs convictions ou les rend émotifs », a-t-il déclaré. “Peu importe à quel point c’est bon, ou à quel point cela a l’air nouveau, ou quoi que ce soit du genre.”
Leave a Reply