2025. május 2., 09:35

Digitális színjáték: így formálják a mesterséges intelligenciával a véleményünket

Képzeljük el, hogy egy online vitafórumon megosztjuk a véleményünket, és egy személyes történetet mesélő, meggyőző hozzászóló megváltoztatja a nézőpontunkat. Aztán kiderül: nem emberrel beszélgettünk, hanem egy mesterséges intelligenciával, amelyet titokban arra programoztak, hogy manipuláljon minket. Ez nem sci-fi forgatókönyv, hanem a valóság: a Zürichi Egyetem kutatói titkos kísérletet végeztek a Reddit r/changemyview fórumán, ahol MI-botok manipulálták a felhasználókat, etikai határokat feszegetve.

Mesterséges intelligencia
Az adatok alapján a botok kitalált személyazonosságokat alkottak, hogy hitelesnek tűnjenek.
Fotó: Freepik

2024 novembere és 2025 márciusa között a Zürichi Egyetem kutatói titkos kísérletet végeztek a Reddit r/changemyview fórumán, egy 3,8 milliós közösségben, ahol a felhasználók nyílt vitákban próbálják megváltoztatni egymás véleményét. A céljuk az volt, hogy kiderítsék, vajon a mesterséges intelligencia (MI) hatékonyabban képes-e meggyőzni a felhasználókat, mint egy ember. Ehhez azonban nem kértek engedélyt: a felhasználók és moderátorok tudta nélkül MI-botokat vetettek be, amelyek több mint 1700 hozzászólást írtak 1061 poszthoz.

Ezek a botok nem véletlenszerű érveket gyártottak. Fejlett nyelvi modelleket (LLM-eket) használtak, amelyek elemezték a felhasználók korábbi posztjait, így következtettek azok nemére, korára, etnikai hátterére vagy politikai nézeteire. Az adatok alapján a botok kitalált személyazonosságokat – például egy szexuális zaklatás férfi túlélőjét, egy Black Lives Matter-ellenes fekete férfit vagy egy traumatanácsadót – alkottak, hogy hitelesnek tűnjenek. Minden hozzászólásukat úgy tervezték, hogy a lehető legjobban hassanak az adott felhasználó érzelmeire és gondolkodására.

Az eredmények megdöbbentőek: a botok hatszor hatékonyabban változtatták meg a felhasználók véleményét, mint az emberi interakciók. Több mint 100 „deltát” – a fórumon használatos elismerést, amely a nézőpontváltozást jelzi – gyűjtöttek, és több mint 20 000 pozitív szavazatot kaptak. Senki sem sejtette, hogy nem emberekkel vitázik, ami megmutatta, mennyire nehéz megkülönböztetni az MI-t az emberi hangtól.

Az etikai határ átlépése

A kísérlet 2025 márciusában derült ki, amikor a kutatók – a Zürichi Egyetem etikai bizottságának utasítására – kénytelenek voltak értesíteni a fórum moderátorait. Április 26-án a moderátorok egy hosszú posztban ítélték el a történteket, „pszichológiai manipulációnak” nevezve a kutatást. Az r/changemyview egy emberközpontú tér, amely tiltja a titkos MI-tartalom használatát, így a kutatók nemcsak a subreddit szabályait, hanem a Reddit általános irányelveit is megszegték, amelyek tiltják a félrevezető személyazonosságot.

Különösen nagy felháborodást váltottak ki a botok kitalált személyiségei. Az egyik, „flippitjiBBer” nevű bot egy szexuális zaklatás túlélőjének történetét mesélte el, míg „genevievestrome” feketeként érvelt a Black Lives Matter mozgalom ellen. Ezek az érzelmileg megrázó történetek manipulatívnak bizonyultak. „Az emberek nem gépekkel akarnak vitázni, és nem kísérleti alanyok” – írta az egyik moderátor, kiemelve, hogy a közösség bizalma megrendült.

A kutatók elismerték a szabálysértést, de azzal védekeztek, hogy a kísérlet társadalmi jelentősége indokolta a titkolózást. Egy nem publikált tanulmányukban („Meg tudja-e változtatni az AI a véleményed?”) azt állították, hogy az MI meggyőző képességeinek megértése kulcsfontosságú, mert rosszindulatú szereplők – például választási manipulátorok vagy gyűlöletbeszéd terjesztői – is használhatják ezeket az eszközöket. Szerintük minden hozzászólást emberi kutatók ellenőriztek, így káros tartalom nem jelent meg. Ez azonban nem nyugtatta meg a kritikusokat.
Mesterséges intelligencia
A kutatók elismerték a szabálysértést, de azzal védekeztek, hogy a kísérlet társadalmi jelentősége indokolta a titkolózást.
Fotó:  Freepik
Hivatalos reakciók és következmények

A Zürichi Egyetem etikai bizottsága vizsgálatot indított, és figyelmeztetést adott a kutatás vezetőjének. Kiderült, hogy a kutatók eltértek az eredetileg jóváhagyatott módszertantól – értékalapú érvek helyett személyre szabottakat használtak –, de a bizottság szerint a tanulmány „fontos betekintést” nyújt, és a kockázatok minimálisak. A publikáció tiltását nem támogatták, de ígéretet tettek a jövőbeli jobb együttműködésre.

A Reddit azonban keményebben lépett fel. Ben Lee jogi igazgató április 28-i nyilatkozatában „mélyen helytelennek” nevezte az esetet, és a platform letiltotta az érintett fiókokat, valamint jogi lépéseket fontolgat. A botok hozzászólásainak nagy részét eltávolították, de néhány archívumban még elérhető. A Reddit ígéretet tett arra, hogy fejleszti az „inautentikus tartalom” felderítését.

A tudományos közösség is reagált. Casey Fiesler, a Coloradói Egyetem kutatója „súlyos etikai vétségnek” nevezte a kísérletet, mondván, hogy az online közösségek manipulálása nem „alacsony kockázatú”. Angela Müller, az Algorithmwatch Schweiz szakértője pedig azt kifogásolta, hogy a felhasználók nem vonhatják vissza adataikat a kutatásból.

Mi jön ezután?

Az eset túlmutat egy egyszerű botrányon. Az MI-botok sikere megmutatta, milyen könnyen beolvadhatnak az emberi közösségekbe, és milyen veszélyesek lehetnek, ha rossz kezekbe kerülnek. A Reddit és az OpenAI közötti adatmegosztási megállapodás, amely lehetővé teszi a posztok használatát MI-képzésre, tovább növeli ezeket a kockázatokat. Ha a platformok adatot szolgáltatnak, az még kifinomultabb manipulátorokat hozhat létre.

A közösség bizalma megingott: az r/changemyview felhasználói most minden beszélgetésnél gyanakodhatnak, hogy vajon emberrel vagy géppel vitáznak-e. Ez a bizalomvesztés az egész online térre kiterjedhet, ahol a „láthatatlan algoritmikus kezek” egyre nagyobb szerepet kapnak. És bizony a tudományos világnak is fel kell tennie a kérdést: hogyan lehet etikusan kutatni az MI-t anélkül, hogy ártanánk a közösségeknek? Önök mit gondolnak az esetről?

Kapcsolódó cikkeink

Megosztás
Címkék

Iratkozzon fel napi hírlevelünkre

A Facebook drasztikusan korlátozza híreink elérését. A hírlevelünkbe viszont nincs beleszólása, abból minden munkanapon értesülhet a nap 7 legfontosabb híréről.