Az OpenAI nemrég frissítette a „Model Spec”-et – alapvetően az AI szabálykönyvét – egy speciális készlettel. 18 éven aluliak (U18) alapelvek Arra tervezték, hogy a ChatGPT hogyan beszél a 13 és 17 év közötti tinédzserekkel. A lépés egyértelműen elismeri, hogy a tinik nem csak „mini felnőttek”; eltérő érzelmi és fejlődési szükségleteik vannak, amelyek erősebb védőkorlátokat igényelnek, különösen akkor, ha a beszélgetések nehézkesek vagy kockázatosak.
Új keretrendszer a tinédzserekre összpontosító mesterséges intelligencia interakciókhoz
Ez a frissítés pontosan meghatározza, hogy a ChatGPT hogyan kezelje a tinédzser felhasználókat, miközben továbbra is követi a mindenki másra vonatkozó általános szabályokat. OpenAI mondja a lényeg, hogy biztonságosabbnak és életkoruknak megfelelő élményt teremtsünk, a megelőzésre és az átláthatóságra összpontosítva.
Airam Dato-on / Pexels
Ezek sem csak véletlenszerű szabályok; az U18-as alapelvek fejlődéstudományon alapulnak, és külső szakértők, köztük az Amerikai Pszichológiai Társaság ellenőrizte őket.
A keretrendszer négy fő ígéretre épül: a tizenévesek biztonságát mindenek fölé helyezik (még ha ez pillanatnyilag kevésbé segíti is az AI-t), a tinédzserek valós támogatásra való ösztönzése, ahelyett, hogy egy chatbotra hagynák őket, úgy kell őket kezelni, mint a valódi tinédzsereket, nem pedig kisgyerekeket vagy felnőtt felnőtteket, és őszinte lenni az AI korlátaival kapcsolatban.
Ezek az alapelvek formalizálják, hogy a ChatGPT miként jár el fokozott óvatossággal, amikor olyan témák kerülnek szóba, mint az önsértés, a szexuális szerepjáték, a veszélyes kihívások, a szerhasználat, a testképproblémák vagy a nem biztonságos viselkedéssel kapcsolatos titkok megőrzésére irányuló kérések.
Mit jelent ez a családok számára, és mi következik
Ez azért fontos, mert a mesterséges intelligencia gyorsan standard eszközzé válik a fiatalok tanulásában és válaszkeresésében. Világos határok nélkül fennáll annak a veszélye, hogy a tizenévesek mesterséges intelligencia felé fordulnak olyan pillanatokban, amikor valóban szükségük van szülőre, orvosra vagy tanácsadóra.
Az OpenAI állítása szerint ezek az új szabályok biztosítják, hogy amikor egy csevegés veszélyes területre sodródik, az asszisztens biztonságosabb alternatívákat kínál, kemény határokat szab, és azt mondja a tinédzsernek, hogy keressen egy megbízható felnőttet. Ha a dolgok azonnali vészhelyzetnek tűnnek, a rendszer úgy van kialakítva, hogy a segélyszolgálatok vagy segélyszolgálatok felé irányítsa őket.
Unsplash
A szülők számára ez egy kicsit nagyobb megnyugvást jelent. Az OpenAI ezeket az új alapelveket összekapcsolja a tizenéves biztonsági tervvel és a meglévő szülői felügyelettel. A védelmek az újabbakra is bővülnek olyan funkciókat, mint a csoportos csevegésa ChatGPT Atlas böngészőt és a Sora alkalmazást, valamint beépített emlékeztetőket a szünetre, hogy a gyerekek ne ragadjanak a képernyőhöz.
A jövőre nézve az OpenAI megkezdi egy életkor-előrejelző eszköz bevezetését a személyes ChatGPT-fiókokhoz. Ez a rendszer megpróbálja kitalálni ha a felhasználó kiskorú, és automatikusan bekapcsolja ezeket a tizenéves biztonsági intézkedéseket.
Ha nem biztos benne, minden esetre alapértelmezés szerint a biztonságosabb U18-as élményt választja. A cég szerint ez nem egy „egy és kész” javítás; azt tervezik, hogy új kutatások és visszajelzések alapján folyamatosan módosítják ezeket a védelmeket, egyértelművé téve, hogy a tizenévesek biztonsága hosszú távú projekt lesz.









