A chatbotok tévedései: amikor a mesterséges intelligencia félreinformál

A chatbotok használata a tényellenőrzésben forradalmi lehetőségeket kínál – ugyanakkor komoly veszélyeket is rejt. A mesterséges intelligencia által generált válaszok nem mindig megbízhatóak, és egyes chatbotok, mint például a Grok, súlyos tévedéseket is képesek terjeszteni, amint azt több nemzetközi tanulmány és valós példák is alátámasztják.

A chatbotok használata egyre elterjedtebb a tényellenőrzésben

Az elmúlt években a mesterséges intelligencia fejlődése radikálisan átalakította az információkeresési szokásainkat. Egy friss brit felmérés szerint az amerikai internethasználók 27%-a már inkább MI-alapú chatbotokat, például a ChatGPT-t, a Meta AI-t, a Copilotot vagy a Perplexityt választja a hagyományos keresőmotorok helyett.

A chatbotok használata logikus lépésnek tűnik: azonnali, könnyen érthető válaszokat kínálnak, sokszor több forrásból összeállítva. Ám e mögött az egyszerűség mögött komoly problémák húzódhatnak meg, amelyek akár félrevezető információkat is eredményezhetnek – és ez különösen veszélyes lehet a hírek, politikai állítások vagy egészségügyi tanácsok esetében.

Tényellenőrzés chatbotokkal: hol csúszik el a rendszer?

A Grok chatbot körüli botrány jól példázza a problémát. A platform téves információkat közölt a dél-afrikai „fehér népirtásról”, amelynek valóságalapja erősen megkérdőjelezhető, és a szélsőjobboldali összeesküvés-elméletekhez kapcsolódik. A Grok azonban nemcsak hogy ezt az állítást „tényként” kezelte, hanem kéretlenül is felhozta a témát teljesen más kérdésekre válaszolva.

Ez nem egyedi eset. A BBC és a Tow Center for Digital Journalism tanulmányai szerint a chatbotok válaszai gyakran tartalmaznak torzításokat, ténybeli hibákat és manipulált idézeteket. A BBC kutatása szerint a vizsgált válaszok több mint fele valamilyen súlyos problémával bírt, míg a Tow Center elemzése szerint a chatbotok az esetek 60%-ában nem tudták pontosan megjelölni a forrásokat. Ezek a hibák nem csupán technikai bakik – hanem potenciálisan félrevezető, sőt káros információk is lehetnek.

Mi áll a hibák hátterében?

A chatbotok „diétája” – vagyis az, hogy milyen adatbázisokon és milyen forrásokon tanulnak – döntő fontosságú. Ha az MI nem megbízható vagy torzított információkon alapul, akkor a válaszai is azok lesznek.

Ráadásul ezek a chatbotok gyakran „riasztó magabiztossággal” adják a hibás válaszaikat. A ChatGPT például 134 alkalommal hibásan azonosított forrásokat, de csupán tizenötször jelezte, hogy nem biztos a válaszban – elutasítani pedig egyszer sem volt hajlandó. A rendszer inkább kitalál valamit, mint hogy ne mondjon semmit.

Chatbotok használata sokszor kockázatos. Ellenőrizni kell
Chatbotok használata sokszor kockázatos. Ellenőrizni kell/Fotó: 123rf.com

A chatbotok használata továbbra is kockázatos

A Meta AI is hasonló problémákkal küzd: 2024 áprilisában egy New York-i szülői Facebook-csoportban egy teljesen fiktív posztot generált, amelyben egy fogyatékkal élő gyermek szülőjeként azonosította magát. Bár a Meta elnézést kért, az eset ismét rámutatott arra, hogy ezek az eszközök nem rendelkeznek „tudattal” vagy „tapasztalattal”. Könnyen lehetnek a félreértések és a konteók terjesztői.

Más esetekben a chatbotok nyelvi félreértések miatt adnak nevetséges válaszokat, mint amikor Grok azt hitte, egy kosárlabdázó „téglákat dobál”, szó szerint téglákkal okozott károkat. A szórakoztató hibák mellett azonban komoly következményekkel járhatnak a félretájékoztatások, például amikor Grok hamisan közölt adatokat az elnökjelöltek szavazólapra kerüléséről.

A megoldás: tudatosság és ellenőrzés

Bár a chatbotok használata kényelmes és gyors, az MI-alapú rendszerek jelenlegi formájukban nem helyettesíthetik a független, emberi tényellenőrzést. A felhasználóknak érdemes kritikusan kezelniük a chatbotok válaszait, különösen ha politikai, egészségügyi vagy társadalmi kérdésekről van szó.

A technológia fejlődésével a pontosság is javulhat, de amíg ez nem történik meg, az MI-asszisztensek használata mellett szükséges a források többszörös ellenőrzése is.

Itt arról olvashatsz: busy culture. A rohanás illúziója.

Betöltés...