szerző:
Rodler Lili

Nemzetközi innovációs díjat nyert a BME és a TC&C közös fejlesztése, a Deepfake Guard, amely élőben leplezi le a deepfake-csalásokat.

A Budapesti Műszaki és Gazdaságtudományi Egyetem (BME) Automatizálási és Alkalmazott Informatikai Tanszékének kutatói a TC&C Kft.-vel közösen olyan rendszert hoztak létre, amely élő videó- és hangalapú deepfake-manipulációkat képes leleplezni valós időben – tették közzé az egyetem honlapján. A technológia még nincs kereskedelmi forgalomban, de már elnyerte a Frost & Sullivan 2025-ös Global New Product Innovation díját, amelyet kiemelkedő és piacképes újításoknak ítélnek oda.

Hat éremmel zártak a magyarok a pekingi Mesterséges Intelligencia Diákolimpián

Miért fontos ez?

  • A deepfake-technológia ma már arra is képes, hogy élő videóban adjon valakinek a szájába mondatokat, amit sosem mondott.
  • Egyre gyakoribbak az olyan csalási kísérletek, amikor banki azonosításnál vagy üzleti meetingeken próbálnak hamis identitással visszaélni.
  • Magyarországon is dokumentáltak már sikeres deepfake-csalásokat, sokszor dark weben vásárolt, könnyen hozzáférhető eszközökkel.
Mi az a deepfake?

A deepfake olyan mesterséges intelligenciával készült hamis kép, videó vagy hang, amely valóságosnak tűnik, de valójában manipulált.
Leggyakoribb formája, amikor egy ember arcát vagy hangját másra cserélik ki – például mintha egy híresség olyat mondana vagy tenne, amit soha nem tett.

 

Ilyesmikre szokták használni a hétköznapokban:

  • Politikai manipuláció: előállítanak egy videót, amelyben egy ismert politikus „elmond” olyasmit, amit valójában soha nem mondott – így befolyásolhatják a közvéleményt.

  • Banki csalások: volt rá példa, hogy egy cég pénzügyi vezetőjét deepfake-hanggal utasították nagy összegek átutalására.

  • Celebek és influenszerek arca: gyakran készítenek velük hamis reklámokat vagy kompromittáló videókat, amik gyorsan terjednek a közösségi médiában.

  • Hétköznapi átverések: bárki fényképéből készíthető hamis videó, például egy „videóhívás”, amiben a csaló úgy tesz, mintha egy barát vagy családtag lenne.

  • Szórakoztatás és humor: nem minden deepfake rosszindulatú – népszerűek azok a videók, ahol például híres színészek arcát helyezik be klasszikus filmjelenetekbe.

A fő veszély abban rejlik, hogy egyre nehezebb megkülönböztetni a valóságot a manipulált tartalomtól.

Egy példa az ilyen jellegű videókra:

Nem akarta elfogadni a Meta 43 milliárd forintos állásajánlatát egy 24 éves amerikai srác – Zuckerberg személyesen kereste fel

Hogyan működik a Deepfake Guard?

  • Külön elemzi a hangot és a képet, majd kockázatértékelést ad az operátornak.
  • A pontossága 98% feletti az ismert módszereknél.
  • Beépített trükköket is alkalmaz, például arra kérheti a felhasználót, hogy takarja el a száját a kezével – a deepfake-generátorok itt gyakran hibáznak, a száj halványan megjelenik a kézfejen.
  • Nemcsak banki azonosításnál, hanem vállalati belső kommunikációban is hasznos, ahol nagy összegek vagy üzleti titkok foroghatnak kockán.

 

A fejlesztést Forstner Bertalan és Kővári Bence egyetemi docensek, valamint Békési Gergő doktorandusz vezették. A TC&C két éve kereste meg a tanszéket, mert call center-szoftverükben sürgetővé vált a valós idejű azonosítás megbízhatóbbá tétele.

A rendszer szervesen illeszkedik a BME korábbi kutatásaihoz: a generatív technológiák és a kézírás-hitelesítés terén elért eredményekhez, amelyeket már a rendőrség is hasznosított. A következő egy évben a finomhangolás és optimalizálás zajlik majd, részben azért, hogy a program kisebb hardvereken – akár egy átlagos laptopon – is fusson, így a szélesebb piaci bevezetés előtt az üzleti felhasználók számára is vonzóvá válhasson.

Flynn, az első mesterséges intelligencia-hallgató a bécsi művészeti egyetemen

A BME szakemberei szerint a közeljövőben az üzleti felhasználók világszerte alapkövetelményként fogják elvárni az ilyen biztonsági funkciókat, hiszen a mesterséges intelligencia által generált hamis videók és hangok elleni védelem kulcskérdéssé vált.