Megállíthatatlanok a deepfake tartalmak

A Kaliforniai Egyetem szakemberei arra figyelmeztetnek, hogy a deepfake tartalmakat érzékelő rendszerek könnyen átverhetőek.

Az elmúlt években különféle szervezetek és egyetemek, de a tech óriások is dolgoztak olyan rendszereken, amelyek képesek azonosítani a deepfake tartalmakat.

Ez azért fontos, mert a tévinformációk és álhírek terjedéséhez ezek nagy mértékben hozzájárulhatnak. Sajnos azonban a deepfake tartalmakat érzékelő rendszerek könnyen átverhetőek – erre hívták fel a figyelmet a Kaliforniai Egyetem számítógéptudósai.

A csapat megmutatta, hogyan tudják átverni az eszközöket úgynevezett ellenséges minták beszúrásával a videókba. Ezek olyan manipulált képek, amelyek miatt a mesterséges intelligencia-alapú rendszerek hibáznak. A legtöbb ilyen megoldás ugyanis az arcok követésére épül, a kivágott adatokat egy neurális hálózat elemzi, és képes megállapítani, ha bizonyos elemek nincsenek elég jól reprodukálva (például egy pislogás).

A tudósok módszerével azonban a legjobb rendszereket is sikerült átverni, ráadásul még a tömörített videóknál is működik az ötlet, akkor is, ha nincs teljes hozzáférésük az érzékelőmodellekhez.

Ez a gyakorlatban azt jelenti, hogy a rosszakarók tudnak olyan deepfake tartalmakat előállítani, amelyekről egyetlen rendszer sem mondja meg, hogy hamisak. A szakemberek szerint olyan adaptív tréningre van szükség, amely egészen addig generál ilyen tartalmakat, amíg végül a rendszerek felismerik a csalást.

Azóta történt

Előzmények