Nemzetközi innovációs díjat nyert a BME és a TC&C közös fejlesztése, a Deepfake Guard, amely élőben leplezi le a deepfake-csalásokat.
A Budapesti Műszaki és Gazdaságtudományi Egyetem (BME) Automatizálási és Alkalmazott Informatikai Tanszékének kutatói a TC&C Kft.-vel közösen olyan rendszert hoztak létre, amely élő videó- és hangalapú deepfake-manipulációkat képes leleplezni valós időben – tették közzé az egyetem honlapján. A technológia még nincs kereskedelmi forgalomban, de már elnyerte a Frost & Sullivan 2025-ös Global New Product Innovation díját, amelyet kiemelkedő és piacképes újításoknak ítélnek oda.
Hat éremmel zártak a magyarok a pekingi Mesterséges Intelligencia Diákolimpián
Miért fontos ez?
- A deepfake-technológia ma már arra is képes, hogy élő videóban adjon valakinek a szájába mondatokat, amit sosem mondott.
- Egyre gyakoribbak az olyan csalási kísérletek, amikor banki azonosításnál vagy üzleti meetingeken próbálnak hamis identitással visszaélni.
- Magyarországon is dokumentáltak már sikeres deepfake-csalásokat, sokszor dark weben vásárolt, könnyen hozzáférhető eszközökkel.
Mi az a deepfake? |
A deepfake olyan mesterséges intelligenciával készült hamis kép, videó vagy hang, amely valóságosnak tűnik, de valójában manipulált. Leggyakoribb formája, amikor egy ember arcát vagy hangját másra cserélik ki – például mintha egy híresség olyat mondana vagy tenne, amit soha nem tett.
Ilyesmikre szokták használni a hétköznapokban:
-
Politikai manipuláció: előállítanak egy videót, amelyben egy ismert politikus „elmond” olyasmit, amit valójában soha nem mondott – így befolyásolhatják a közvéleményt.
-
Banki csalások: volt rá példa, hogy egy cég pénzügyi vezetőjét deepfake-hanggal utasították nagy összegek átutalására.
-
Celebek és influenszerek arca: gyakran készítenek velük hamis reklámokat vagy kompromittáló videókat, amik gyorsan terjednek a közösségi médiában.
-
Hétköznapi átverések: bárki fényképéből készíthető hamis videó, például egy „videóhívás”, amiben a csaló úgy tesz, mintha egy barát vagy családtag lenne.
-
Szórakoztatás és humor: nem minden deepfake rosszindulatú – népszerűek azok a videók, ahol például híres színészek arcát helyezik be klasszikus filmjelenetekbe.
A fő veszély abban rejlik, hogy egyre nehezebb megkülönböztetni a valóságot a manipulált tartalomtól.
|
Egy példa az ilyen jellegű videókra:
Nem akarta elfogadni a Meta 43 milliárd forintos állásajánlatát egy 24 éves amerikai srác – Zuckerberg személyesen kereste fel
Hogyan működik a Deepfake Guard?
- Külön elemzi a hangot és a képet, majd kockázatértékelést ad az operátornak.
- A pontossága 98% feletti az ismert módszereknél.
- Beépített trükköket is alkalmaz, például arra kérheti a felhasználót, hogy takarja el a száját a kezével – a deepfake-generátorok itt gyakran hibáznak, a száj halványan megjelenik a kézfejen.
- Nemcsak banki azonosításnál, hanem vállalati belső kommunikációban is hasznos, ahol nagy összegek vagy üzleti titkok foroghatnak kockán.
A fejlesztést Forstner Bertalan és Kővári Bence egyetemi docensek, valamint Békési Gergő doktorandusz vezették. A TC&C két éve kereste meg a tanszéket, mert call center-szoftverükben sürgetővé vált a valós idejű azonosítás megbízhatóbbá tétele.
A rendszer szervesen illeszkedik a BME korábbi kutatásaihoz: a generatív technológiák és a kézírás-hitelesítés terén elért eredményekhez, amelyeket már a rendőrség is hasznosított. A következő egy évben a finomhangolás és optimalizálás zajlik majd, részben azért, hogy a program kisebb hardvereken – akár egy átlagos laptopon – is fusson, így a szélesebb piaci bevezetés előtt az üzleti felhasználók számára is vonzóvá válhasson.
Flynn, az első mesterséges intelligencia-hallgató a bécsi művészeti egyetemen
A BME szakemberei szerint a közeljövőben az üzleti felhasználók világszerte alapkövetelményként fogják elvárni az ilyen biztonsági funkciókat, hiszen a mesterséges intelligencia által generált hamis videók és hangok elleni védelem kulcskérdéssé vált.