Conflit en Ukraine : des vidéos truquées par IA diffusent de prétendues redditions massives de soldats ukrainiens

show index hide index

Dans le contexte du conflit en Ukraine, la diffusion de vidéos truquées par artificial intelligence devient un outil de désinformation puissant. Ces vidéos, générées par des IA avancées comme Sora, prétendent montrer des scènes de reddition massive de soldats ukrainiens et sont largement partagées sur les réseaux sociaux. Derrière ces faux témoignages se cache une volonté de semer le doute et de discréditer l’Ukraine sur la scène internationale, en utilisant des contenus visuellement convaincants mais artificiellement créés.

Des vidéos réalisées à l’aide d’artificial intelligence circulent intensément sur les réseaux sociaux, prétendant montrer des soldats ukrainiens se rendre en masse ou exprimant des regrets d’avoir été envoyés au front. Ces contenus faussement attribués à des soldats ukrainiens participent à une campagne active de désinformation, visant à saper le moral et à discréditer les efforts de résistance de l’Ukraine. Ce phénomène soulève des enjeux significatifs sur l’impact des technologies de génération de contenu automatique dans le contexte de conflits internationaux.

La diffusion de vidéos truquées

L’utilisation des outils d’artificial intelligence pour la génération de vidéos truquées dans le contexte du conflit en Ukraine attire l’attention sur la propagation des fausses informations. Des contenus comme celui montrant des « soldats ukrainiens en pleurs » ou encore « en position de reddition » sont devenus viraux, cumulant des centaines de milliers voire des millions de vues sur des plateformes comme Facebook et X.

La technologie derrière les vidéos

I'artificial intelligence employée pour créer ces vidéos provient d’une application nommée Sora, développée par OpenAI, déjà reconnue pour ChatGPT. Bien que Sora ne soit pas disponible en France, elle est exploitée par de nombreux utilisateurs pour confectionner des vidéos à l’apparence authentique. Le nom de l’outil apparaît parfois en filigrane sur les vidéos, témoignant de l’origine numérique de ces créations.

Déconstruction des faux récits

Le Centre ukrainien de lutte contre la désinformation s’attache à démonter les mensonges contenus dans ces vidéos. Par exemple, un prétendu soldat de 23 ans apparaissant en pleurs ne pourrait, en réalité, pas être enrôlé de façon obligatoire, car l’âge minimum de mobilisation est de 25 ans. Les volontaires entre 22 et 23 ans étant les seuls autorisés à servir. De plus, il est apparu que le visage de ce faussaire était celui d’un citoyen russe connu sur Internet.

La propagation et les conséquences des vidéos truquées

Un célèbre compte TikTok, suspendu depuis lors, a largement diffusé ces vidéos, en produisant jusqu’à 85 similaires, toutes arborant le logo de Sora. Récemment, une vidéo montée par une IA montre un soi-disant soldat brésilien regrettant son engagement en Ukraine. Les anomalies, telles qu’un nombre excessif de dents, révèlent la manipulation.

Les enjeux de la désinformation numérique

Le Centre ukrainien de lutte contre la désinformation insiste sur l’objectif de ces vidéos : créer une méfiance au sein de la société ukrainienne, compliquer les efforts de mobilisation et nuire à la réputation de l’Ukraine sur la scène internationale. Ces enjeux soulignent l’importance de surveiller et de réguler l’utilisation des technologies de génération de contenu par IA afin de préserver l’intégrité de l’information transmise au public.

Rate this article

InterCoaching is an independent media. Support us by adding us to your Google News favorites:

Share your opinion