Az Openai bejelentette A szülői ellenőrzések és a CHATGPT továbbfejlesztett biztonsági intézkedéseinek végrehajtása után a szülők pert indítottak ezen a héten a kaliforniai állami bíróságon Sugárzott hozzájárultak az övékhez 16 éves fia öngyilkosság ez év elején.
A társaság azt mondta, hogy „mély felelősségvállalásnak érzi magát, hogy segítsen azoknak, akiknek leginkább szükségük van rá”, és azon dolgozik, hogy jobban reagáljon a CHATBOT -felhasználókkal foglalkozó helyzetekre, akik mentálhigiénés válságokat és öngyilkossági gondolatokat tapasztalhatnak.
„Hamarosan bemutatjuk a szülői ellenőrzéseket is, amelyek lehetőséget adnak a szülőknek, hogy több betekintést nyerjenek és alakítsák be a tizenévesek chatgpt -t.” – mondta Openai egy blogbejegyzésben.„Azt is feltárjuk, hogy lehetővé tegyük a tizenévesek (szülői felügyelet mellett) megbízható sürgősségi kapcsolatának kijelölését. Így az akut szorongás pillanatainál a Chatgpt több, mint az erőforrásokra mutathat: ez segíthet a tizenévesek közvetlen összekapcsolásában valakivel, aki beléphet.”
Az Openai még nem válaszolt a megjegyzéskérelemre. (Nyilvánosság: Ziff Davis, a CNET anyavállalata áprilisban pert indított az Openai ellen, állítva, hogy megsértette a ZIFF Davis szerzői jogait az AI rendszerek képzésében és üzemeltetésében.)
Az OpenAI által tesztelt biztonsági funkciók között szerepel a felhasználók számára, hogy kijelöljék egy sürgősségi kapcsolatot, aki a platformon „egy-kattintási üzenetekkel vagy hívásokkal” érhető el. Egy másik szolgáltatás egy opt-in opció, amely lehetővé tenné a chatbot számára, hogy közvetlenül kapcsolatba lépjen az emberekkel. Az Openai nem adott konkrét ütemtervet a változásokhoz.
További információ: Miért mondják a szakemberek, hogy kétszer gondolkodjanak, mielőtt az AI -t terapeutaként használnák
A 16 éves Adam Raine szülei által benyújtott peres eljárás azt állítja, hogy a Chatgpt az öngyilkossági módszerekről szóló információkat szolgáltatta fiának, igazolta öngyilkossági gondolatait, és felajánlotta, hogy öt nappal az áprilisi halála előtt öngyilkossági jegyzet írásában felajánlotta. A panasz az Openai -t és Sam Altman vezérigazgatót alperesnek nevezi, meghatározatlan károkat keresve.
„Ez a tragédia nem volt hibás vagy előre nem látható éles eset – ez volt a szándékos tervezési döntések kiszámítható eredménye” – állítja a panasz. „Az Openai elindította legújabb modelljét (‘GPT-4O’) olyan funkciókkal, amelyek szándékosan elősegítik a pszichológiai függőség előmozdítását.”
Az eset az AI-társaságok egyik első legfontosabb jogi kihívását képviseli a tartalom moderálása és a felhasználói biztonság szempontjából, és precedenst állít be arra, hogy a nagy nyelvi modellek, mint például a CHATGPT, a Gemini és a Claude kezelik a veszélyeztetett emberekkel való érzékeny interakciókat. Az eszközök kritikával szembesültek annak alapján, hogy miként lépnek kapcsolatba a kiszolgáltatott felhasználókkal, különösen fiatalok– Az Amerikai Pszichológiai Szövetségnek van Figyelmeztetett szülők hogy megfigyeljék gyermekeik AI chatbotok és karakterek használatát.
Ha úgy érzi, mintha Ön vagy valaki, akit ismersz, azonnali veszélyben van, hívja a 911 -et (vagy az országod helyi sürgősségi vonalát), vagy menjen egy mentőszobába, hogy azonnali segítséget kapjon. Magyarázza el, hogy ez egy pszichiátriai vészhelyzet, és kérjen valakit, akit képzettek az ilyen típusú helyzetekre. Ha negatív gondolatokkal vagy öngyilkossági érzésekkel küzd, akkor erőforrások állnak rendelkezésre. Az Egyesült Államokban hívja a Nemzeti öngyilkosság -megelőzés mentőkötélét a 988 -as telefonszámon.