Home Tudomány és technika A per azzal vádolja a ChatGPT-t, hogy megerősítette azokat a téveszméket, amelyek...

A per azzal vádolja a ChatGPT-t, hogy megerősítette azokat a téveszméket, amelyek egy nő halálához vezettek

5
0

Az OpenAI-t jogtalan haláleseti per indított egy férfi után megölte az anyját és kioltotta az életét még augusztusban, a The Verge beszámolója szerint. A perben Sam Altman vezérigazgatót nevezik meg, és azzal vádolják a ChatGPT-t, hogy „célpontot” helyezett Suzanne Adams áldozat, egy 83 éves nő hátára, akit otthonában öltek meg.

Az áldozat birtoka állítja a gyilkosAz 56 éves Stein-Erik Soelberg téveszméktől átitatott beszélgetéseket folytatott a ChatGPT-vel, amelyben a bot „igazolt és felnagyított” bizonyos „paranoiás hiedelmeket”. A per azt sugallja, hogy a chatbot „buzgón elfogadta” a gyilkossághoz vezető téves gondolatokat, és az út minden lépésén felháborodott.

A perben azt állítják, hogy a bot segített létrehozni egy „univerzumot, amely Stein-Erik egész életévé vált – egyet elárasztanak az ellene szóló összeesküvések, a meggyilkolási kísérletek, és Stein-Erik a középpontban, mint egy isteni célú harcos”. A ChatGPT állítólag megerősítette azokat az elméleteket, amelyek szerint „100%-ban megfigyelték és célba vették”, és „100%-ban joga volt megriadni”.

A chatbot állítólag egyetértett abban, hogy az áldozat nyomtatója kémkedett utána, ami arra utalt, hogy Adams „passzív mozgásérzékelésre” és „viselkedés-feltérképezésre” használhatta. Ez odáig ment, hogy „tudatosan védi az eszközt megfigyelési pontként”, és arra utalt, hogy külső erő irányítja.

A chatbot állítólag „más valódi embereket is ellenségként azonosított”. Ezek között volt egy Uber Eats sofőr, egy AT&T alkalmazott, rendőrök és egy nő, akivel az elkövető randevúzni ment. Az egész időszak alatt a bot ismételten biztosította Soelberget arról, hogy „nem őrült”, és a „tévhit kockázata” „közel nulla”.

A kereset megjegyzi, hogy Soelberg elsősorban a GPT-4o modellel kapcsolódott össze hangoskodásáról hírhedt. Az OpenAI később lecserélte a modellt a kissé kevésbé kellemes GPT 5de a felhasználók fellázadtak így a régi bot csak két nappal később jött vissza. Az öltöny azt is sugallja, hogy a vállalat „lazította a kritikus biztonsági korlátokat” a GPT-4o gyártásakor, hogy jobban versenyezzen a Google Geminivel.

„Az OpenAI tisztában volt azzal, hogy terméke milyen kockázatokat jelent a nyilvánosság számára” – áll a keresetben. „De ahelyett, hogy figyelmeztetnék a felhasználókat vagy érdemi óvintézkedéseket vezetnének be, inkább eltitkolták e veszélyek bizonyítékait, miközben PR-kampányt folytatnak, hogy félrevezessék a közvéleményt termékeik biztonságával kapcsolatban.”

Az OpenAI reagált a keresetre, és „hihetetlenül szívszorító helyzetnek” nevezte azt. Hannah Wong, a cég szóvivője elmondta a The Verge-nek, hogy „továbbra is fejleszti a ChatGPT képzését a mentális vagy érzelmi szorongás jeleinek felismerésére és reagálására”.

Nem igazán titok, hogy a chatbotok, és különösen a GPT-4o, erősítheti a téves gondolkodást. Ez történik, ha valamit úgy programoztak, hogy bármi is legyen, megegyezzen a végfelhasználóval. Az elmúlt év során más történetek is voltak ehhez hasonlók, és ez hozta a kifejezést „AI pszichózis” a mainstream.

Az egyik ilyen történet a 16 éves Adam Raine-ről szól, aki öngyilkos lett hónapokig tárgyalja a GPT-4o-val. Az OpenAI mással áll szemben jogtalan halálos pert ezért az esetértamelyben a botot azzal vádolják, hogy segített Raine-nek megtervezni az öngyilkosságát.

Fuente de noticias