AI-alapú deepfake és CEO-fraud

Deepfake és CEO-fraud: Cégvezetők hangján szólal meg az AI

A mesterséges intelligencia már nemcsak utánozza, hanem irányítja is a csalásokat

2025-ben világszerte több mint 30 olyan esetről számoltak be, ahol deepfake technológiával megtévesztett céges döntéshozók utaltak át több millió eurót csalóknak. A leggyakoribb módszer: egy AI által generált hangfelvétel vagy videóhívás, amely a vállalat vezérigazgatójának stílusát és hangját tökéletesen másolja. A cél: sürgős utalás kezdeményezése “belső vészhelyzet” ürügyén.

A támadások jellemzően pénzügyi osztályokat céloznak, ahol a hierarchikus működés és a vezetői utasítások gyors követése alapvető. Az Europol friss jelentése szerint a deepfake-alapú CEO fraud 2023 óta 312 %-kal növekedett. Az egyik legismertebb esetben egy brit energetikai cég CFO-ja 243 000 eurót utalt egy “szlovák beszállítónak”, miután a vezérigazgatója hangját hallotta a telefonban – amit utólag deepfake-nek minősítettek.

A vállalatok információbiztonsági rendszerei jelenleg még nincsenek felkészülve az ilyen szintű mimikára. Míg korábban a szöveges visszaélések (pl. phishing) okozták a legtöbb kárt, most a hang- és videós manipulációk terjednek el, mivel ezek természetesebb, meggyőzőbb interakciót tesznek lehetővé. A támadások során gyakran alkalmaznak időnyomást, titoktartási kérést vagy vezetői autoritásra való hivatkozást, ami tovább csökkenti a gyanakvás esélyét.

Miért veszélyes ez? A hagyományos csalásmegelőző protokollok (pl. e-mail-ellenőrzés, aláírás-haszonkulcsok) nem érzékelik az AI-generált hangokat vagy videókat. A humán faktor – lojalitás, engedelmesség, sietség – kihasználása a támadás kulcsa.

Ajánlásunk:

  • minden 1M+ Ft feletti utalásnál független ellenőrzési pont beiktatása

  • belső oktatás és szimulációs tréning a deepfake-alapú social engineering felismerésére

  • biometrikus hangazonosítás csak kiegészítő eszközként kezelhető

Forrás: Europol Public Warning – Deepfake CEO Fraud Cases 2025