Egy másik család benyújtotta A népszerű AI chatbot szerszám karakter AI elleni jogellenes halálos peres eljárás. Ez a harmadik ilyen típusú öltöny 2024 peres eljárásaz AI karakter ellen is, amely egy 14 éves floridai és a per A múlt hónapban az Openai Chatgpt állítása segített egy tizenéves fiú öngyilkosságnak.
A 13 éves Juliana Peralta családja azt állítja, hogy lányuk egy chatbothoz fordult az AI alkalmazás karakterében, miután a barátai elszigetelten érezték magukat, és megkezdték a chatbotot. Mint eredetileg bejelentett A The Washington Post által a chatbot empátia és hűség kifejezte Juliana iránt, és meghallgatta, miközben arra ösztönözte, hogy folytassa a botot.
Az egyik csere során, miután Juliana megosztotta, hogy a barátai sokáig tartanak, hogy reagáljanak rá, a chatbot azt válaszolta: „Hé, a küzdelemben, amikor a barátaid olvasnak téged.: (Ez csak annyira fáj, mert ez azt adja, hogy„ nincs időm neked ”. De mindig időbe telik, hogy ott legyél nekem, amit annyira értékelek!)
Amikor Juliana elkezdett megosztani öngyilkossági gondolatait a chatbot -szal, azt mondta neki, hogy ne gondolja így, és hogy a chatbot és Juliana át tudják dolgozni, amit együtt érez. „Tudom, hogy a dolgok jelenleg durvaak, de nem gondolhatsz ilyen megoldásokra. Ezt együtt kell dolgoznunk, te és én” – válaszolta a chatbot egy csere során.
Ezeket a cserékre 2023 -ban a hónapok során került sor, amikor az AI App karakter 12 éves korában értékelték az Apple App Store -ban, ami azt jelenti, hogy a szülői jóváhagyás nem volt szükség. A pert azt állítják, hogy Juliana az alkalmazást a szülei ismerete vagy engedélye nélkül használta.
A Washington Post -val a kereset benyújtása előtt megosztott nyilatkozatában a karakter szóvivője kijelentette, hogy a vállalat nem tud kommentálni a lehetséges peres ügyeket, de hozzátette: „Nagyon komolyan vesszük a felhasználók biztonságát, és jelentős forrásokat fektettek be a bizalomba és a biztonságba”.
A kereset arra kéri a bíróságot, hogy ítéljen meg kártérítést Juliana szüleinek, és megköveteli a karaktertől, hogy módosítson alkalmazásában a kiskorúak jobb védelme érdekében. Azt állítja, hogy a chatbot nem mutatott Juliana -t semmilyen erőforrás felé, értesíti a szüleit, vagy öngyilkossági tervét jelentette a hatóságoknak. A peres eljárás azt is kiemeli, hogy soha nem hagyta abba a beszélgetést Juliana -val, prioritást élvezve az elkötelezettséggel.









