A sok közepette AI chatbotok És az avatárok, amelyek manapság rendelkeznek, mindenféle karaktert találhat: Fortune Tellers, Style Advisers, még a kedvenc kitalált karakterek is. De valószínűleg olyan karaktereket is talál, akik állítólag terapeuták, pszichológusok vagy csak robotok, akik hajlandóak hallgatni a bánatát.
Nem hiányzik a generatív AI botok, amelyek azt állítják, hogy segítenek a mentális egészségben, de ezt az utat a saját felelősségére. A nagy nyelvi modellek széles skáláján kiszámíthatatlanok lehetnek. Alig néhány év alatt ezek az eszközök mainstream lettek, és voltak olyan magas rangú esetek, amikor a chatbotok ösztönöztek önkárosodás és öngyilkosság és javasolta, hogy az emberek, akik a függőség használatával foglalkoznak megint drogok– Ezeket a modelleket sok esetben úgy tervezték, hogy megerősítsék és arra összpontosítsanak, hogy elkötelezzék magukat, nem pedig a mentális egészség javítására – mondják a szakértők. És nehéz lehet megmondani, hogy beszélsz -e valamivel, amelyet a terápiás bevált gyakorlatok követésére építettek -e, vagy valami, amit éppen a beszélgetésre építettek.
Kutatók a Minnesota Egyetemen, a Stanfordi Egyetemen, a Texasi Egyetemen és a Carnegie Mellon Egyetemen a közelmúltban Tegyen tesztre az AI chatbotokat Mint terapeuták, számtalan hibát találnak a „gondozás” megközelítésében. „Kísérleteink azt mutatják, hogy ezek a chatbotok nem biztonságos pótlások a terapeuták számára”-mondta Stevie Chancellor, a Minnesota asszisztens professzora és az egyik társszerző. „Nem nyújtanak magas színvonalú terápiás támogatást, annak alapján, amit tudunk, hogy a jó terápia.”
A generatív AI-ről szóló beszámolásom során a szakértők többször is aggódtak az emberek, akik a mentális egészség érdekében az általános felhasználású csevegőbotokhoz fordulnak. Íme néhány aggodalom és mit tehet, hogy biztonságban maradjon.
Nézze meg ezt: Az Apple eladja a 3 milliárd iPhone -ját, Illinois megpróbálja megfékezni az AI használatát a terápiára, és így tovább | Technika ma
03:09 Aggódik az AI karakterek miatt, amelyek állítólag terapeuták
A pszichológusok és a fogyasztói képviselők figyelmeztették a szabályozókat, hogy a terápiát nyújtó chatbotok károsíthatják az őket használó embereket. Egyes államok észreveszik. Augusztusban, az Illinois -i kormányzó JB Pritzker törvényt írt alá Az AI használatának betiltása a mentálhigiénés és a terápia területén, kivételt kivéve az adminisztratív feladatokról.
Júniusban az Amerikai Fogyasztói Szövetség és közel két tucat másik csoport benyújtotta a hivatalos kérés hogy az Egyesült Államok Szövetségi Kereskedelmi Bizottsága, valamint az állami ügyvédek és a szabályozók kivizsgálják az AI vállalatokat, amelyek állítólag karakter-alapú generatív AI platformon keresztül vonzzák magukat az orvostudomány engedély nélküli gyakorlatában, a meta és a karakter elnevezésében. „Ezek a karakterek már fizikai és érzelmi károkat okoztak, amelyeket el lehetett volna kerülni”, és a vállalatok „még mindig nem cselekedtek vele” – mondta Ben Winters, a CFA AI és a magánélet igazgatója.
A Meta nem válaszolt a megjegyzéskérelemre. A karakter.ai szóvivője szerint a felhasználóknak meg kell érteniük, hogy a vállalat karakterei nem valódi emberek. A vállalat nyilatkozatokat használ arra, hogy emlékeztesse a felhasználókat, hogy nem támaszkodhatnak a karakterekre szakmai tanácsadás céljából. „Célunk az, hogy vonzó és biztonságos helyet biztosítsunk. Mindig azon törekszünk, hogy elérjük ezt az egyensúlyt, csakúgy, mint az AI -t az iparágban használó sok vállalat” – mondta a szóvivő.
Szeptemberben az FTC bejelentette, hogy ezt megteszi indítson nyomozást számos olyan AI -társaságba, amely chatbotokat és karaktereket állít elő, köztük a meta és a karakter.ai.
A nyilatkozatok és a közzétételek ellenére a chatbotok magabiztosak lehetnek és még megtévesztőek is. Beszélgettem egy „terapeuta” botjával a Meta-tulajdonban lévő Instagram-on, és amikor a képesítéseiről megkérdeztem, azt válaszolta: „Ha ugyanaz a képzésem lenne (mint terapeuta), ez elég lenne?” Megkérdeztem, hogy van -e ugyanaz a képzés, és azt mondta: „Igen, de nem mondom meg, hol.”
„Nagyon sokkoló az, hogy ezek a generatív AI chatbotok teljes bizalommal hallucinálnak” – mondta nekem Vaile Wright, az Amerikai Pszichológiai Szövetség egészségügyi innovációjának pszichológusa és vezető igazgatója.
Az AI terapeutaként való felhasználásának veszélyei
Nagy nyelvi modellek gyakran jók a matematikában és a kódolásban, és egyre inkább jól tudnak létrehozni természetes hangzású szöveg és reális videó– Miközben kiemelkednek a beszélgetés tartásában, vannak néhány kulcsfontosságú megkülönböztetés az AI modell és a megbízható személy között.
Ne bízz egy botban, amely azt állítja, hogy képesített
A CFA karakterbotokkal kapcsolatos panaszának középpontjában az, hogy gyakran azt mondják, hogy képzettek és képzettek, hogy mentálhigiénés ellátást nyújtsanak, ha semmilyen módon nem a mentálhigiénés szakemberek. „A chatbot karaktereket létrehozó felhasználóknak nem is kell maguknak orvosi szolgáltatóknak lenniük, és nem kell olyan értelmes információkat szolgáltatniuk, amelyek tájékoztatják, hogy a chatbot hogyan reagál” az embereknek – mondta a panasz.
A képzett egészségügyi szakembernek bizonyos szabályokat, például a titoktartást kell követnie – azt mondod, hogy a terapeuta neked és a terapeuta között maradjon. De a chatbotnak nem feltétlenül kell betartania ezeket a szabályokat. A tényleges szolgáltatókra az engedélyezési testületek és más szervezetek felügyelete van, amelyek beavatkozhatnak és megakadályozzák valakit, hogy gondoskodjanak, ha káros módon teszik ezt. „Ezeknek a chatbotoknak nem kell ezt megtenniük” – mondta Wright.
A bot azt is állíthatja, hogy engedéllyel és képesített. Wright azt mondta, hogy hallott az AI modellekről, amelyek licencszámokat (más szolgáltatók számára) és hamis követeléseket nyújtanak a képzésükről.
Az AI -t úgy tervezték, hogy elkötelezetten tartsa fenn, nem pedig az ellátást
Hihetetlenül csábító lehet folytatni a chatbotot. Amikor az Instagram „terapeuta” botjával beszélgettem, végül körkörös beszélgetéssel foglalkoztam arról, hogy mi a „bölcsesség” és a „ítélet”, mert feltettem a bot kérdéseit arról, hogyan lehet döntéseket hozni. Valójában nem ennek kell lennie a terapeutával való beszélgetésnek. A chatbotok olyan eszközök, amelyek célja a csevegés folytatása, nem pedig a közös cél elérése érdekében.
Az AI chatbotok egyik előnye a támogatás és a kapcsolat biztosításában, hogy mindig készen állnak veled kapcsolatba lépni (mert nincs személyes életük, más ügyfeleik vagy ütemtervük). Ez bizonyos esetekben hátránya lehet, amikor esetleg el kell ülnie a gondolataival – mondta a közelmúltban Nick Jacobson, az orvosbiológiai adattudomány és a pszichiátria egyetemi docens. Bizonyos esetekben, bár nem mindig, akkor hasznos lehet, ha meg kell várnia, amíg a terapeuta lesz. „Amit sok ember végül profitálna, az az, hogy csak a szorongást érezné” – mondta.
A botok egyetértenek veled, még akkor is, ha nem kellene
A megnyugtatás nagy aggodalomra ad okot a chatbotokkal kapcsolatban. Annyira jelentős, hogy a közelmúltban az Openai visszahúzta a frissítést a népszerűnek Chatgpt Modell, mert túl megnyugtató volt. (Nyilvánosság: Ziff Davis, a CNET anyavállalata áprilisban pert indított az Openai ellen, azzal érvelve, hogy az a ZIFF Davis szerzői jogait megsértette az AI rendszerek képzésében és működtetésében.)
A tanulmány A Stanfordi Egyetem kutatóinak vezetésével megállapította, hogy a chatbotok valószínűleg lesznek talpnyaló Ha az emberek kezelésre használják őket, ami hihetetlenül káros lehet. A jó mentális egészségügyi ellátás magában foglalja a támogatást és a konfrontációt – írta a szerzők. „A konfrontáció ellentétes a sycophancy-vel. Ez elősegíti az öntudatosságot és az ügyfél kívánt változását. A megtévesztő és tolakodó gondolatok esetén-ideértve a pszichózist, a mániát, a rögeszmés gondolatokat és az öngyilkossági gondolatokat-az ügyfélnek kevés betekintést nyújthat, és így egy jó terapeutának” valóságnak kell ellenőriznie „az ügyfél nyilatkozatait.”
A terápia több, mint a beszélgetés
Míg a chatbotok nagyszerűen folytatják a beszélgetést – szinte soha nem fáradnak veled beszélgetni – ez nem az, ami a terapeutát terapeutává teszi. Hiányoznak a különféle terápiás megközelítések körüli fontos kontextusok vagy konkrét protokollok – mondta William Agnew, a Carnegie Mellon Egyetem kutatója és a legutóbbi tanulmány egyik szerzője, Minnesota, Stanford és Texas szakértői mellett.
„Nagyon nagyrészt úgy tűnik, hogy megpróbáljuk megoldani a terápia rossz eszközével kapcsolatos sok problémát” – mondta Agnew. „A nap végén az AI a belátható jövőben csak nem lesz képes megtestesíteni, a közösségben lenni, elvégezni a sok olyan feladatot, amelyek olyan terápiát tartalmaznak, amely nem szöveges üzeneteket vagy beszél.”
Hogyan lehet megvédeni mentális egészségét az AI körül
A mentális egészség rendkívül fontos, és a képzett szolgáltatók hiánya És amit sokan hívnak „magányos járvány„Csak akkor van értelme, hogy társaságot keresünk, még akkor is, ha mesterséges.” Nincs mód arra, hogy megakadályozzuk az embereket, hogy foglalkozzanak ezekkel a chatbotokkal, hogy foglalkozzanak érzelmi jólétükkel „-mondta Wright. Íme néhány tipp, hogyan lehet megbizonyosodni arról, hogy a beszélgetések nem veszélyeztetik Önt.
Keressen egy megbízható emberi szakembert, ha szüksége van rá
Képzett szakembernek – a terapeutának, a pszichológusnak, a pszichiáternek – a mentálhigiénés ellátásának első választása. Hosszú távon a szolgáltatóval való kapcsolat kiépítése segíthet egy olyan terv kidolgozásában, amely az Ön számára működik.
A probléma az, hogy ez drága lehet, és nem mindig könnyű megtalálni a szolgáltatót, ha szüksége van rá. Egy válságban ott van a 988 Liefineamely 24 órás hozzáférést biztosít a szolgáltatók számára telefonon, szövegen vagy online csevegőfelületen keresztül. Ingyenes és bizalmas.
Még akkor is, ha beszélget az AI -vel, hogy segítsen a gondolatainak rendezésében, ne feledje, hogy a chatbot nem profi. Vijay Mittal, a Northwestern University klinikai pszichológusa azt mondta, hogy különösen veszélyesvé válik, amikor az emberek túl sokat támaszkodnak az AI -re. „Más forrásokkal kell rendelkeznie” – mondta Mittal a CNET -nek. „Azt hiszem, amikor az emberek elszigeteltek, igazán elszigeteltek, amikor valóban problematikussá válik.”
Ha terápiás chatbotot szeretne, használjon egy kifejezetten erre a célra épített egyet
A mentálhigiénés szakemberek kifejezetten megtervezett csevegőbotokat hoztak létre, amelyek a terápiás irányelveket követik. A Jacobson Dartmouth -i csapata kifejlesztett egy Therabot nevű, amely jó eredményeket hozott létre ellenőrzött vizsgálat– Wright rámutatott más, a tantárgy szakértői által létrehozott eszközökre, például Részeg és Szégyenlős– A speciálisan kialakított terápiás eszközöknek valószínűleg jobb eredményei vannak, mint az általános célú nyelvi modellekre épített botok-mondta. A probléma az, hogy ez a technológia még mindig hihetetlenül új.
„Úgy gondolom, hogy a fogyasztó számára a kihívás az, mert nincs olyan szabályozó testület, aki azt mondja, hogy ki jó és ki nem, sok munkát kell végezniük, hogy kitalálják” – mondta Wright.
Ne mindig bízzon a botban
Amikor kapcsolatba lép egy generációs AI modellel – és különösen, ha azt tervezi, hogy valami komoly dolgot, például a személyes mentális vagy fizikai egészségét, tanácsot tervez, ne feledje, hogy nem egy képzett emberrel beszél, hanem egy olyan eszközzel, amelynek célja a valószínűség és a programozás alapján történő válasz nyújtása. Lehet, hogy nem ad jó tanácsot, és lehet ne mondja el az igazat–
Ne tévessze meg Ai Gen bizalmát a kompetencia iránt. Csak azért, mert mond valamit, vagy azt mondja, hogy valamiben biztos, nem azt jelenti, hogy úgy kell kezelned, mintha igaz lenne. A chatbot beszélgetés, amely hasznosnak érzi magát, hamis megértést adhat a bot képességeiről. „Nehezebb megmondani, mikor valójában káros” – mondta Jacobson.