Digitális színjáték: így formálják a mesterséges intelligenciával a véleményünket
Képzeljük el, hogy egy online vitafórumon megosztjuk a véleményünket, és egy személyes történetet mesélő, meggyőző hozzászóló megváltoztatja a nézőpontunkat. Aztán kiderül: nem emberrel beszélgettünk, hanem egy mesterséges intelligenciával, amelyet titokban arra programoztak, hogy manipuláljon minket. Ez nem sci-fi forgatókönyv, hanem a valóság: a Zürichi Egyetem kutatói titkos kísérletet végeztek a Reddit r/changemyview fórumán, ahol MI-botok manipulálták a felhasználókat, etikai határokat feszegetve.

2024 novembere és 2025 márciusa között a Zürichi Egyetem kutatói titkos kísérletet végeztek a Reddit r/changemyview fórumán, egy 3,8 milliós közösségben, ahol a felhasználók nyílt vitákban próbálják megváltoztatni egymás véleményét. A céljuk az volt, hogy kiderítsék, vajon a mesterséges intelligencia (MI) hatékonyabban képes-e meggyőzni a felhasználókat, mint egy ember. Ehhez azonban nem kértek engedélyt: a felhasználók és moderátorok tudta nélkül MI-botokat vetettek be, amelyek több mint 1700 hozzászólást írtak 1061 poszthoz.
Az eredmények megdöbbentőek: a botok hatszor hatékonyabban változtatták meg a felhasználók véleményét, mint az emberi interakciók. Több mint 100 „deltát” – a fórumon használatos elismerést, amely a nézőpontváltozást jelzi – gyűjtöttek, és több mint 20 000 pozitív szavazatot kaptak. Senki sem sejtette, hogy nem emberekkel vitázik, ami megmutatta, mennyire nehéz megkülönböztetni az MI-t az emberi hangtól.
A kísérlet 2025 márciusában derült ki, amikor a kutatók – a Zürichi Egyetem etikai bizottságának utasítására – kénytelenek voltak értesíteni a fórum moderátorait. Április 26-án a moderátorok egy hosszú posztban ítélték el a történteket, „pszichológiai manipulációnak” nevezve a kutatást. Az r/changemyview egy emberközpontú tér, amely tiltja a titkos MI-tartalom használatát, így a kutatók nemcsak a subreddit szabályait, hanem a Reddit általános irányelveit is megszegték, amelyek tiltják a félrevezető személyazonosságot.
Különösen nagy felháborodást váltottak ki a botok kitalált személyiségei. Az egyik, „flippitjiBBer” nevű bot egy szexuális zaklatás túlélőjének történetét mesélte el, míg „genevievestrome” feketeként érvelt a Black Lives Matter mozgalom ellen. Ezek az érzelmileg megrázó történetek manipulatívnak bizonyultak. „Az emberek nem gépekkel akarnak vitázni, és nem kísérleti alanyok” – írta az egyik moderátor, kiemelve, hogy a közösség bizalma megrendült.
A Zürichi Egyetem etikai bizottsága vizsgálatot indított, és figyelmeztetést adott a kutatás vezetőjének. Kiderült, hogy a kutatók eltértek az eredetileg jóváhagyatott módszertantól – értékalapú érvek helyett személyre szabottakat használtak –, de a bizottság szerint a tanulmány „fontos betekintést” nyújt, és a kockázatok minimálisak. A publikáció tiltását nem támogatták, de ígéretet tettek a jövőbeli jobb együttműködésre.
A Reddit azonban keményebben lépett fel. Ben Lee jogi igazgató április 28-i nyilatkozatában „mélyen helytelennek” nevezte az esetet, és a platform letiltotta az érintett fiókokat, valamint jogi lépéseket fontolgat. A botok hozzászólásainak nagy részét eltávolították, de néhány archívumban még elérhető. A Reddit ígéretet tett arra, hogy fejleszti az „inautentikus tartalom” felderítését.
A tudományos közösség is reagált. Casey Fiesler, a Coloradói Egyetem kutatója „súlyos etikai vétségnek” nevezte a kísérletet, mondván, hogy az online közösségek manipulálása nem „alacsony kockázatú”. Angela Müller, az Algorithmwatch Schweiz szakértője pedig azt kifogásolta, hogy a felhasználók nem vonhatják vissza adataikat a kutatásból.
Az eset túlmutat egy egyszerű botrányon. Az MI-botok sikere megmutatta, milyen könnyen beolvadhatnak az emberi közösségekbe, és milyen veszélyesek lehetnek, ha rossz kezekbe kerülnek. A Reddit és az OpenAI közötti adatmegosztási megállapodás, amely lehetővé teszi a posztok használatát MI-képzésre, tovább növeli ezeket a kockázatokat. Ha a platformok adatot szolgáltatnak, az még kifinomultabb manipulátorokat hozhat létre.