Oktatójának hamar gyanús lett, hogy egy sosemvolt eseményre hivatkozott a szövegben, forrásként pedig egy nemlétező lapot adott meg.
A héten egy hosszabb cikkben foglalkoztunk azzal, hogyan kezelik a hazai egyetemek a ChatGPT-vel és más mesterséges intelligenciát (MI) használó rendszerekkel való visszaélést, vagyis, amikor valaki MI-vel íratott beadandóval szeretne megszerezni egy-egy jó jegyet. Korábban a Szegedi Tudományegyetem egyik oktatója számolt be ilyen esetekről, azóta azonban újabb eset derült ki. Szalay Dániel, a Media1.hu főszerkesztője, aki Budapesti Metropolitan Egyetemen (METU) oktat, Facebook-oldalán osztotta meg első saját hasonló tapasztalatát.
Bejegyzésében azt írta, diákjainak egy példát kellett hozniuk újságírói etikai vétségekre. Mint az Eduline-nak elmondta, az egyik hallgató egy olyan történetet, hozott, mely szerint Bayer Zsolt nem engedett be valamilyen rendezvényre újságírókat. Gyanús volt azonban, hogy ilyen nem történt.
„Nagyon fura volt, hogy erről az ügyről még nem hallottam egyáltalán, még sosem került elő”
– emlékezik vissza. Hozzátéve: már az gyanús volt, hogy a szövegben a publicistára a Magyar Nemzet főszerkesztőjeként hivatkozott, holott sosem volt az. „Így indult az anyag, már ott fölkaptam a fejem. Ez már gyanússá tette, de úgy voltam vele, hogy tudom, hogy nem volt az, de mi van, ha mégis, csak nem emlékszem és megrágalmazok valakit húsz fő előtt, hogy csalt” – idézi fel.
Viszont ezen kívül más valótlan elem is volt a szövegben, a COO magazinra hivatkozott, ilyen magyar nyelvű lap nem létezik. Ennyi gyanús részlet után rákérdezett, hogy mikor történt mindez és hol olvasott erről, de ezeket a hallgató nem tudta megmondani. Bejegyzése alapján ekkorra már biztos volt benne, hogy a szöveg MI-vel készült, végül a diákja, miután rákérdezett, el is ismerte. Elmondása szerint nem a ChatGPT-vel, hanem egy másik programmal készíttette el a szöveget.
A diák – miután egy prezentációt sem tartott meg – megbukott, újra fel kell vennie a tárgyat. Szalay Dániel azt mondja, ezt az ügyet plágiumként kezelték, hiszen a saját neve alatt adott be olyan munkát, amelyet nem ő írt. „Mindenkit megtévesztett, mert amikor beszélgettünk erről, akkor is úgy tett, mintha ez valós történés lenne, egy idő után bukott csak ez ki” – idézi fel Szalay, aki szerint egy újságíró-jelölttől elvárható lett volna, hogy utánanézzen az állításai forrásainak. Hozzáteszi, egy másik anyaggal kapcsolatban is felmerült a gyanú, mert abban is vannak furcsa esetek, de ott még nem egyértelmű a helyzet, azt még át kell néznie újra. Az illető előadása szóban hitelesebbnek tűnt, így nem bizonyosodott be helyben, hogy csalt volna – idézi fel.
„Itt úgy bukott ki a dolog, hogy olyan kamu állítások voltak a szövegben, amik annak, aki járatos a témában, gyanússá válnak”
– fogalmaz kérdésünkre Szalay Dániel. Szerinte tehát a MI egyetemi kezelésének a kulcsa az oktatók felkészültsége. Emellett pedig az, amit itt is csinált, tehát, hogy megkéri a hallgatót, hogy szóban fejtse ki, hol hallott az esetről, hol lehet róla többet megtudni.
El tud rugaszkodni a valóságtól a ChatGPT
|
Szalay Dániel nehezményezi egyébként, hogy ahol a ChatGPT nem tud valamire válaszolni, ott kitalál nemlétező eseményeket. Mi is megkértük a rendszert, hogy mondjon újságíró-etikai vétségekre hazai példákat és több olyan eseményről is beszámolt, melyek teljesen légből kapottak voltak. A sosemvolt eseményekhez ráadásul még a legnagyobb hazai hírportálok valódi cikkeihez hasonló link-szerkezettel sosem létezett újságcikkek fals webcímeit is legenerálta. Melyek értelemszerűen mind 404-es hibára vezetnek, hiszen nem léteznek.
|
(Kiemelt kép: Airam Dato-on, Pexels)