AI-t zaklató munkakört hirdetett egy cég a chatbotok türelmének tesztelésére

A napi 800 dollárt (átszámolva körülbelül 270 ezer forintot) fizető állás lényege, hogy feltárja a chatbotok következetlenségeit, miközben azok felejtenek, pontatlanul válaszolnak vagy „hallucinálnak”.

Egy kaliforniai startup, a Memvid napi 800 dollárt fizet azért, hogy egy úgynevezett „AI bully” nyolc órán keresztül tesztelje a mesterséges intelligencia türelmét és memóriáját – írja a Guardian.

Egy teljes munkanapon át a legfejlettebb chatbotokkal fogsz beszélgetni – és az lesz a feladatod, hogy őszintén beszámolj arról, mennyire frusztráló velük kommunikálni

– olvasható az álláshirdetésben.

A munkához nincs szükség informatikai végzettségre vagy speciális mesterségesintelligencia-ismeretekre. Elég, ha valaki már sokszor csalódott a technológiában, és megvan benne a türelem ahhoz, hogy ugyanazt a kérdést többször is feltegye.

A gyerekek védelmében Ausztrália szabályozná a mesterséges intelligencia használatát

A feladat nemcsak a mesterséges intelligencia, hanem az emberi türelem próbája is: a jelentkezőknek fenn kell tartaniuk a beszélgetést, vissza kell térniük korábbi témákhoz, és finoman rá kell vezetniük az AI-t arra, hogy ismerje be, ha elvesztette a beszélgetés fonalát – mindezt folyamatos dokumentálás mellett.

Omar elmondta, hogy a kezdeményezés célja ráirányítani a figyelmet az AI-chatbotok egyik tartós problémájára: arra, hogy hosszabb beszélgetések során elveszítik a kontextust. Egy 2025-ös tanulmány szerint például még a legfejlettebb AI-rendszerek pontossága is 30-60 százalékkal romlik, ha hosszabb beszélgetések során kell információkat megjegyezniük.

A probléma gyökere, hogy a vállalatok gyors ütemben kapcsolták össze az AI-rendszereket hatalmas tudásbázisokkal. Ennek következményeként a visszakeresés-alapú rendszerek minden eddiginél gyorsabban képesek magabiztos, ám hibás válaszokat adni anélkül, hogy ezt egyértelműen jeleznék. Ez valós környezetben viszont komoly kockázatot hordoz. A probléma jogi és egészségügyi területeken is egyre gyakoribb, utóbbi esetében például a téves diagnosztizálás csökkentheti az orvosok éberségét.

Az oktatók 90 százaléka szerint az AI rombolja a kritikus gondolkodást

Az „AI bully” kísérlet tehát hiába tűnik játékosnak, azt mutatja meg, hogy a sok szempontból rendkívül képzett mesterséges intelligencia-rendszerek más területeken ellentmondásosak és megbízhatatlanok lehetnek. A 800 dollár pedig soknak tűnhet, de a hibák figyelmen kívül hagyása jóval nagyobb árat követelhet.

Hozzászólások

„Ha felbukkan egy-egy Gundalf, az nem zavar a rendszerben, hanem jelzés” – véli Odrobina László, volt helyettes államtitkár

Hrabóczki Dániel 'Gundalf' története a volt helyettes államtitkár szerint arról is szól, hogy az iskola még mindig egy olyan világra készít fel, ami már nem létezik. Odrobina László szerint az oktatás legnagyobb hibája, hogy nem tud kilépni a politikai ciklusok logikájából, miközben a diákok már régen más szabályok szerint gondolkodnak.