Az AI Companion chatbotoknak emlékeztetniük kell a kaliforniai felhasználókat, hogy nem egy új törvény alapján, amelyet Gavin Newsom kormányzó hétfőn írt alá.
A törvény, az SB 243, szintén megköveteli a társ-chatbot-társaságok számára, hogy tartsák fenn a protokollokat az olyan esetek azonosításához és kezeléséhez, amelyekben a felhasználók öngyilkossági gondolatokat vagy önkárosodást fejeznek ki. A 18 év alatti felhasználók számára a chatbotoknak legalább három óránként értesítést kell nyújtaniuk, amely a felhasználókat emlékezteti szünetet tart És hogy a bot nem ember.
Ez egyike annak a számos Bills Newsomnak, amelyet az elmúlt hetekben írtak alá a szociális média, a mesterséges intelligencia és más fogyasztói technológiai kérdésekről. Egy másik, hétfőn aláírt törvényjavaslat, az AB 56, figyelmeztető címkéket igényel a közösségi média platformon, hasonlóan a dohánytermékekhez. A múlt héten a Newsom aláírt olyan intézkedéseket, amelyek megkövetelik az internetes böngészőket, hogy megkönnyítsék az emberek számára a webhelyek elmondását. ne akarom, hogy eladják az adataikat és A hangos hirdetések betiltása streaming platformon.
Az AI Companion chatbotok az elmúlt hónapokban különös ellenőrzést készítettek a törvényhozók és a szabályozók számára. A Szövetségi Kereskedelmi Bizottság nyomozást indított Számos társaságba válaszul a fogyasztói csoportok és a szülők panaszaira, amelyek szerint a botok ártottak a gyermekek mentális egészségének. Openai bemutatta Új szülői ellenőrzések És más védőkorlátok a népszerű CHATGPT platformon, miután a társaságot a szülők beperelték, akik azt állítják, hogy a CHATGPT hozzájárult a tini fia öngyilkosságához.
„Láttuk néhány igazán szörnyű és tragikus példát a fiatalok számára, akiket a nem szabályozott technika sért, és nem állunk tovább, míg a vállalatok szükséges korlátok és elszámoltathatóság nélkül folytatódnak” – mondta a Newsom egy nyilatkozatában.
Ne hagyja ki egyetlen elfogulatlan technológiai tartalmunkat és laboratóriumi alapú véleményünket. Adja hozzá a CNET -t Preferált Google forrásként.
Az egyik AI társ-fejlesztő, a REPLika azt mondta a CNET-nek, hogy már rendelkezik protokollokkal az önellenőrzés észlelésére, az új törvény előírásainak megfelelően, és hogy a szabályozókkal és másokkal együttműködik a követelmények betartása és a fogyasztók védelme érdekében.
„Mint az AI társaság egyik úttörője, felismerjük a biztonság vezetésének mély felelősségét” – mondta a Repika Minju Song egy e -mailes nyilatkozatában. A Song szerint a Repika tartalomszűrő rendszereket, közösségi iránymutatásokat és biztonsági rendszereket használ, amelyek szükség esetén a felhasználókat válságforrásokra utalják.
További információ: Az AI -t terapeutaként használja? Miért mondják a szakemberek, hogy újra gondolkodjanak
A karakter.ai szóvivője szerint a vállalat „üdvözli a szabályozókkal és a törvényhozókkal való együttműködést, amikor előírják a feltörekvő térre vonatkozó rendeleteket és jogszabályokat, és betartják a törvényeket, beleértve az SB 243 -at.” Az Openai szóvivője, Jamie Radice a törvényjavaslatot „értelmes lépésnek” nevezte az AI biztonság érdekében. „A tiszta védőkorlátok beállításával Kalifornia elősegíti az AI fejlesztésének és telepítésének felelősebb megközelítését az ország egész területén” – mondta Radice egy e -mailben.
Egy Bill Newsomnak még nem írt alá, AB 1064továbbmenné azáltal, hogy megtiltja a fejlesztők számára, hogy a gyermekek számára elérhetővé tegyék a társ chatbotokat, kivéve, ha az AI társ „nem láthatóan nem képes” többek között a káros tevékenységek ösztönzésére vagy a szexuálisan kifejezett interakciókba való bevonásra.