Egyre nehezebb eldönteni, hogy amit látunk, valóban megtörténik-e, vagy mesterségesen előállított tartalommal van dolgunk.
A generatív mesterséges intelligencia eszközei – mint például a ChatGPT, a Midjourney vagy a Sora – mára olyan szintre jutottak, hogy fotórealisztikus képek, videók vagy hanganyagok készítésére is alkalmasak. Ezek a rendszerek képesek valósághű fényviszonyokat, árnyékokat, textúrákat és mozgásokat előállítani, így a laikus szem számára gyakorlatilag megkülönböztethetetlenné válik a mesterséges és a valódi tartalom. A technológia fejlődésével a manipulált felvételek előállítása gyorsabbá, olcsóbbá és széles körben hozzáférhetővé vált, egyetlen perc alatt teljesen ingyen bármilyen fénykép, hang vagy videó legyártható.
A hitelesség ellenőrzését tovább nehezíti, hogy a hamis tartalmakat gyakran szándékosan rontják zaj hozzáadásával vagy tömörítési hibák imitálásával. Ez elfedi azokat az apró technikai jeleket – például a képi artefaktumokat vagy a generálási mintázatokat -, amelyek korábban segíthettek a szakértőknek a felismerésben. Ennek következtében egyre gyakoribb az a helyzet, hogy még alapos vizsgálat mellett sem lehet egyértelműen megállapítani egy felvétel eredetét, ami új kihívások elé állítja a médiát, a hatóságokat és a hétköznapi felhasználókat egyaránt.
Megjelentek az első, ehhez kapcsolódó csalások is: egy francia ügy kapcsán azzal kellett szembesülni, hogy az idős asszonyt videón kérte unokája nagyobb összeg átutalására, amit az teljesített. Dacára az élő párbeszédnek a hívás átverés volt, melyet a férfi egyetlen képéből és egy alig tíz másodperces, közösségi oldalról vett rövidvideójából készített a mesterséges intelligencia, így az áldozat a látszat ellenére valójában nem is az unokájával beszélt.