Videoclipul care arată „soldați ucraineni care se predau” este generat de AI

Armata ucraineană se confruntă cu o criză de personal și de armament la aproape patru ani de la invazia Rusiei, însă un nou videoclip care pretinde să arate capitularea în masă a soldaților ucraineni a fost creat cu ajutorul inteligenței artificiale. Clipul, care poartă logo-ul programului AI Sora, s-a răspândit în mai multe limbi, inclusiv în română, alături de afirmații că observatorii occidentali ignoră moralul scăzut al armatei ucrainene pe măsură ce războiul cu Rusia se prelungește. Indiciile vizuale și analiza audio digitală confirmă, de asemenea, că a fost creat cu ajutorul AI și că nu a avut loc nicio capitulare a trupelor ucrainene până la data de 10 noiembrie 2025.

„Mă scuzați, dragi români! Nu vreau să vă deranjez prea mult, dar vedeți că parlamentul are in procedură de urgență legislația care să vă transforme în "forță letalã". Așa arată forța letală a lui Zelensky”, spune descrierea acestui reel publicat pe 3 noiembrie 2025, distribuit de aproape 800 de ori de atunci. 

Imaginile par să arate soldați care plâng într-un decor noroios, unii purtând pe uniforme culorile naționale ale Ucrainei. În fundal se aud țipete și plânsete, iar o voce spune că aceștia vor să se predea.

Clipul se întrerupe apoi cu apariția bărbatului care a încărcat videoclipul, afirmând că, deși unele țări sprijină Ucraina cu arme și bani, „acești soldați plâng, nu mai vor să lupte”.  

Postări similare pot fi găsite și aici și aici pe Facebook. 

Postările în limba română par să facă aluzie la proiectul de lege privind pregătirea populației pentru apărare, deja aprobat de Guvern și aflat în dezbatere în Parlament în toamna lui 2025. Actul însă prevede ca tinerii între 18 și 35 de ani să poată urma voluntar o pregătire militară remunerată și să intre ulterior în rezerva operațională a Armatei Române. Legea nu impune mobilizarea populației și nu are ca scop crearea unei „forțe letale”, cum sugerează descrierile virale.

Image
Capturi de ecran ale postărilor false de pe Facebook realizate pe 10 noiembrie 2025

Același clip, însoțit de afirmația că ar arăta soldați ucraineni predându-se, a început să circule și în alte limbi, printre care engleză, italiană, bulgară, maghiară și vietnameză. În alte limbi – inclusiv română, cehă, poloneză, dar și slovacă – au apărut pe rețelele sociale videoclipuri foarte asemănătoare cu aceeași afirmație. Acestea poartă același watermark și același cont de rețea socială ca versiunea de mai sus.

Alte videoclipuri vizual foarte similare, care pretindeau că arată soldați ucraineni predându-se lângă orașul Pokrovsk, au apărut online la începutul lunii noiembrie 2026 și au fost demontate (link arhivat aici) de organizația de verificare Lead Stories, care a descoperit că erau clipuri generate cu ajutorul inteligenței artificiale folosind software-ul Sora al OpenAI.

Pokrovsk este un oraș fortificat din regiunea Donețk a Ucrainei, aflat pe o rută strategică de aprovizionare a armatei ucrainene și vizat de Moscova de peste un an (link arhivat aici). Forțele ruse au avansat până la periferia sa, printr-o mișcare de încercuire, potrivit hărților de luptă publicate de Institute for the Study of War. Cucerirea orașului Pokrovsk ar reprezenta un important câștig propagandistic pentru Kremlin.

Rusia a respins apelurile Statelor Unite de a opri atacurile asupra Ucrainei și a continuat ofensiva terestră.

Însă videoclipul care circulă pe rețelele sociale și pare să arate soldați ucraineni predându-se a fost generat cu ajutorul inteligenței artificiale. Acesta conține sigla „Sora”, iar analiza digitală a sunetului a confirmat, de asemenea, că acesta fost creat artificial.

Videoclip generat cu inteligență artificială

În clip apare o mică siglă care se mișcă pe ecran: un nor cu ochi, pe care scrie „Sora”.

Sora este modelul text–video al companiei OpenAI, care transformă „ideile în videoclipuri cu mișcare și sunet hiperrealiste”.

Image
Videoclipul fals răspândit pe rețelele sociale (stânga) și pagina de deschidere a modelului text-video Sora al OpenAI. Capturi de ecran realizate pe 6 noiembrie 2025. Marcajele cu albastru și roșu au fost adăugate de AFP.

Există și câteva indicii vizuale specifice AI: într-unul dintre cadrele inițiale, un soldat are o mică adâncitură în cască.

În cadrele ulterioare, acea adâncitură devine mai pronunțată, iar casca începe să semene cu ochelari. Astfel de deformări și transformări între obiecte sunt comune în videoclipurile generate cu AI.

Image
Două cadre din videoclipul fals decupate, care arată aceeași figură cu o cască schimbată, realizate pe 6 noiembrie 2025

De asemenea, unele fețe din fundal par distorsionate sau nenaturale, după cum se observă în captura mărită de mai jos.

Image
Un cadru decupat din videoclipul fals și o față mărită de AFP. Captură de ecran realizată pe 7 noiembrie 2025.

Potrivit instrumentelor de verificare InviD-WeVerify ale AFP, Hiya Audio Detection și Deepfake Total dezvoltate de Institutul Fraunhofer, pista audio a videoclipului a fost generată cu ajutorul inteligenței artificiale. Pentru fișierele audio, un scor de 50% indică o probabilitate mare de conținut generat de AI.

Image
Instrumentul de analiză audio Hiya din extensia de browser pentru verificarea faptelor InVID (mai sus) și instrumentul de analiză audio Deepfake Total al Institutului Frauenhofer. Capturi de ecran realizate pe 6 noiembrie 2025

Originea clipului

Majoritatea versiunilor care circulă pe rețelele sociale includ un cont TikTok: „muslim9090_”.

Acest profil nu mai era disponibil pe platformă la data de 6 noiembrie 2025, însă unele dintre videoclipurile sale sunt încă indexate de Google și pot fi vizualizate sub formă de miniaturi. Acestea par a fi clipuri similare, cu soldați care se predau, dar din previzualizare nu se poate confirma dacă și acestea au fost generate cu AI.

Căutând titlul videoclipului în rezultatele Google, au fost găsite alte miniaturi similare provenind de la un alt cont TikTok, tot indisponibil, cu un nume asemănător: „wuslim06”.

TikTok a confirmat pentru AFP, prin e-mail, pe 7 noiembrie 2025, că acești utilizatori au fost eliminați pentru încălcarea regulilor comunității privind conținutul generat de inteligența artificială.

AFP a demontat recent un videoclip similar, publicat de același creator. Alte verificări realizate de AFP despre războiul din Ucraina pot fi găsite aici

Există un conținut pe care ai vrea ca AFP să îl verifice?

Contactează-ne