Deepfake és CEO-fraud: Cégvezetők hangján szólal meg az AI
A mesterséges intelligencia már nemcsak utánozza, hanem irányítja is a csalásokat
2025-ben világszerte több mint 30 olyan esetről számoltak be, ahol deepfake technológiával megtévesztett céges döntéshozók utaltak át több millió eurót csalóknak. A leggyakoribb módszer: egy AI által generált hangfelvétel vagy videóhívás, amely a vállalat vezérigazgatójának stílusát és hangját tökéletesen másolja. A cél: sürgős utalás kezdeményezése “belső vészhelyzet” ürügyén.
A támadások jellemzően pénzügyi osztályokat céloznak, ahol a hierarchikus működés és a vezetői utasítások gyors követése alapvető. Az Europol friss jelentése szerint a deepfake-alapú CEO fraud 2023 óta 312 %-kal növekedett. Az egyik legismertebb esetben egy brit energetikai cég CFO-ja 243 000 eurót utalt egy “szlovák beszállítónak”, miután a vezérigazgatója hangját hallotta a telefonban – amit utólag deepfake-nek minősítettek.
A vállalatok információbiztonsági rendszerei jelenleg még nincsenek felkészülve az ilyen szintű mimikára. Míg korábban a szöveges visszaélések (pl. phishing) okozták a legtöbb kárt, most a hang- és videós manipulációk terjednek el, mivel ezek természetesebb, meggyőzőbb interakciót tesznek lehetővé. A támadások során gyakran alkalmaznak időnyomást, titoktartási kérést vagy vezetői autoritásra való hivatkozást, ami tovább csökkenti a gyanakvás esélyét.
Miért veszélyes ez? A hagyományos csalásmegelőző protokollok (pl. e-mail-ellenőrzés, aláírás-haszonkulcsok) nem érzékelik az AI-generált hangokat vagy videókat. A humán faktor – lojalitás, engedelmesség, sietség – kihasználása a támadás kulcsa.
Ajánlásunk:
minden 1M+ Ft feletti utalásnál független ellenőrzési pont beiktatása
belső oktatás és szimulációs tréning a deepfake-alapú social engineering felismerésére
biometrikus hangazonosítás csak kiegészítő eszközként kezelhető
Forrás: Europol Public Warning – Deepfake CEO Fraud Cases 2025
