Još jedan snimak na mrežama, kao manipulacija o napadu na Tel Aviv

Reč je o sadržaju generisanom veštačkom inteligencijom koji je prvobitno objavljen uz jasno objašnjenje da nije stvarni snimak događaja.
estonia-NATO-ukraine-deploy-canva
Ilustracija; Foto: Canva

  • Video koji se početkom marta 2026. širio društvenim mrežama uz tvrdnju da prikazuje iranski raketni napad na Tel Aviv pregledan je desetine hiljada puta.
  • Snimak je prvobitno objavljen 2. marta „Vids Booster“ uz napomenu da je reč o AI kreaciji.
  • Alat za detekciju sadržaja Hive Moderation procenio je verovatnoću upotrebe veštačke inteligencije u ovom videu na 99%.
  • Analiza samog snimka pokazuje vizuelne anomalije tipične za AI generisan sadržaj, poput neprirodnog širenja dima nakon eksplozije.
  • Iako je Iran u martu 2026. zaista izveo više raketnih napada na Tel Aviv, ovaj konkretni video ne prikazuje stvarni događaj.
  • Objave ocenjujemo kao zloupotrebu vizuelnog sadržaja.

Na društvenim mrežama se početkom marta 2026. proširio video za koji se tvrdi da prikazuje iranski raketni napad na Tel Aviv. U pojedinim objavama navodi se da snimak prikazuje trenutak udara projektila u izraelski grad, a snimci ekrana iz tog zapisa objavljivani su i na drugim nalozima uz tvrdnju da prikazuju aktuelni napad.

U isto vreme, realni raketni napadi Irana na Tel Aviv zaista su zabeleženi u martu 2026. godine, uključujući i napade 3. marta. O konkretnim događajima postoje brojni autentični snimci i fotografije koje su objavili međunarodni mediji i novinske agencije što je doprinelo da se sporni video uklopi u narativ o aktuelnim dešavanjima.

Međutim, detaljnija analiza ukazuju da ovaj snimak nije autentičan. Obrnuta pretraga ključnih kadrova iz snimka pokazuje da je video prvobitno objavljen 2. marta na Facebook stranici Vids Booster u čijem je opisu naznačeno da se radi o sadržaju generisanom veštačkom inteligencijom, a ne o stvarnom snimku napada.

Vizuelna analiza snimka takođe ukazuje na neprirodne elemente karakteristične za AI generisane scene poput dima koji se pojavljuje nakon eksplozije u daljini širi se u neobičnim, nepravilnim oblicima koji se ne podudaraju sa načinom na koji se dim ponaša u stvarnim eksplozijama. Reč je o anomalijama koje su česta posledica generativnih modela koji simuliraju fizičke procese bez njihove potpune realistične reprodukcije.

Da je u pitanju sintetički sadržaj pokazuje i provera uz pomoć alata za detekciju AI sadržaja Hive Moderation, koji je procenio da je verovatnoća upotrebe veštačke inteligencije u ovom videu 99 odsto.