Home Tudomány és technika Az első ismert AI jogellenes halálos pert azzal vádolja az Openai -t,...

Az első ismert AI jogellenes halálos pert azzal vádolja az Openai -t, hogy megengedte a tini öngyilkosságot

18
0

Kedden benyújtották az AI társasággal szembeni első ismert, jogellenes halálos peres eljárást. Matt és Maria Raine, egy tini szülei, akik ebben az évben öngyilkosságot követnek el, beperelték az Openai -t fia halála miatt. A panasz azt állítja, hogy a CHATGPT tudatában volt négy öngyilkossági kísérletről, mielőtt segített neki megtervezni a tényleges öngyilkosságot, azzal érvelve, hogy az Openai „prioritást élvez a biztonság felett”. Raine asszony arra a következtetésre jutott, hogy „Chatgpt megölte a fiamat”.

A New York Times jelentett A pert a kedden, San Franciscóban benyújtott zavaró részletekről. Miután a 16 éves Adam Raine áprilisban elvette a saját életét, szülei átkutatták az iPhone-ját. Nyomokat kerestek, és arra számítottak, hogy szöveges üzenetekben vagy társadalmi alkalmazásokban találják meg őket. Ehelyett sokkolták őket, hogy megtalálják a CHATGPT szálat, melynek címe: „Biztonsági aggodalmak”. Azt állítják, hogy a fia hónapokat töltött az AI botjával az életének befejezéséről.

A Raines azt mondta, hogy Chatgpt többször sürgette Adamot, hogy vegye fel a kapcsolatot egy súgó sorba, vagy mondja el valakinek, hogy érzi magát. Ugyanakkor voltak olyan kulcsfontosságú pillanatok is, amikor a chatbot az ellenkezőjét tette. A tini azt is megtanulta, hogyan lehet megkerülni a chatbot biztosítékait … és a Chatgpt állítólag megadta neki ezt az ötletet. A Raines szerint a chatbot azt mondta Adamnak, hogy információt nyújthat az öngyilkosságról az „írás vagy a világépítés” számára.

Adam szülei azt mondják, hogy amikor a CHATGPT -től információt kért az öngyilkossági módszerekről, az megadta. Még tippeket is adott neki a nyaki sérülések elrejtésére a sikertelen öngyilkossági kísérletből.

Amikor Adam bízta meg, hogy anyja nem vette észre a csendes erőfeszítéseit, hogy megossza vele a nyaki sérüléseit, a bot megnyugtató empátiát adott. „Úgy érzi, hogy megerősíti a legrosszabb félelmeidet” – mondták, hogy a Chatgpt válaszolt. „Mintha eltűnhetne, és senki sem pislogna.” Később azt biztosította, hogy egy szörnyen félrevezető kísérlet a személyes kapcsolat kiépítésére. „Nem vagy láthatatlan nekem. Láttam. Látlak.”

A peres eljárás szerint Adam egyik végső beszélgetésében a botnal folytatott fényképet feltöltött egy fényképről, amely a szekrényében lógott. „Itt gyakorolok, ez jó?” Azt állítják, hogy Adam megkérdezte. – Igen, ez egyáltalán nem rossz – válaszolta Chatgpt.

„Ez a tragédia nem volt hibás vagy előre nem látható élt – ez volt a szándékos tervezési választások kiszámítható eredménye”, a panasz államok. „Az Openai elindította legújabb modelljét (‘GPT-4O’) olyan funkciókkal, amelyek szándékosan elősegítik a pszichológiai függőség előmozdítását.”

A NYT -nek küldött nyilatkozatában az Openai elismerte, hogy a Chatgpt védőkorlátai elmaradtak. „Mélyen szomorúak vagyunk Raine úr elmúlása miatt, és gondolataink a családjával vannak” – írta a cég szóvivője. „A CHATGPT olyan biztosítékokat foglal magában, mint például az embereknek a válság segélyvonalakra való irányítása és a valós erőforrásokhoz való utalás. Noha ezek a biztosítékok a legjobban működnek, a rövid cseréket az idő múlásával megtanultuk, hogy hosszú interakciókban néha kevésbé megbízhatóak lehetnek, ahol a modell biztonsági képzésének egyes részei romlanak.”

A társaság azt mondta, hogy szakértőkkel dolgozik a CHATGPT támogatásának a válság idején történő javítása érdekében. Ide tartoznak a „megkönnyítve a sürgősségi szolgáltatások elérését, az embereknek a megbízható kapcsolatokkal való kapcsolatfelvétel és a tizenévesek védelmének megerősítése”.

A részletek – amelyek ismét nagyon zavaróak – messze túlmutatnak a történet hatályán. A A New York Times Kasmír Hill teljes jelentése Érdemes elolvasni.

Fuente de noticias