Hír

AI mint terapeuta? 3 dolog, ami aggasztja a szakértőket, és 3 tipp a biztonság érdekében

A sok AI chatbot és az avatár közepette, amelyek manapság rendelkeznek az Ön rendelkezésére álló, mindenféle karaktert találnak, amelyekkel beszélhet: Fortune Tellers, Style Advisers, még a kedvenc kitalált karakterek is. De valószínűleg olyan karaktereket is talál, akik állítólag terapeuták, pszichológusok vagy csak robotok, akik hajlandóak hallgatni a bánatát.

Nem hiányzik a generatív AI botok, amelyek azt állítják, hogy segítenek a mentális egészségben, de ezt az utat a saját felelősségére haladja. A nagy nyelvi modellek széles skáláján kiszámíthatatlanok lehetnek. Csak néhány év alatt ezek az eszközök mainstream voltak, vannak olyan magas rangú esetek, amikor a chatbotok ösztönözték az önkárosodást és az öngyilkosságot, és azt javasolták, hogy az emberek újból használják a függőséggel foglalkozó drogokat. Ezeket a modelleket sok esetben úgy tervezték, hogy megerősítsék és arra összpontosítsanak, hogy elkötelezzék magukat, nem pedig a mentális egészség javítására – mondják a szakértők. És nehéz lehet megmondani, hogy beszélsz -e valamivel, amelyet a terápiás bevált gyakorlatok követésére építettek -e, vagy valami, amit éppen a beszélgetésre építettek.

A pszichológusok és a fogyasztói képviselők figyelmeztetik, hogy a terápiát igénylő chatbotok károsíthatják azokat, akik ezeket használják. Ezen a héten az Amerikai Fogyasztói Szövetség és közel két tucat másik csoport hivatalos kérelmet nyújtott be, hogy a Szövetségi Kereskedelmi Bizottság, valamint az állami ügyvédek és a szabályozók kivizsgálják az AI társaságokat, amelyek állítólag botuk révén vonzzák az orvostudomány engedély nélküli gyakorlatát – a Meta és a karakter elnevezését. “A végrehajtó ügynökségeknek minden szinten világossá kell tenni, hogy az illegális magatartást elősegítő és előmozdító vállalatokat elszámoltathatóvá kell tenni” – mondta Ben Winters, a CFA AI és magánélet igazgatója. “Ezek a karakterek már fizikai és érzelmi károkat okoztak, amelyeket el lehetett volna kerülni, és még mindig nem cselekedtek.”

A META nem válaszolt a megjegyzéskérelemre. A karakter.ai szóvivője szerint a felhasználóknak meg kell érteniük, hogy a vállalat karakterei nem valódi emberek. A vállalat nyilatkozatokat használ arra, hogy emlékeztesse a felhasználókat, hogy nem támaszkodhatnak a karakterekre szakmai tanácsadás céljából. “Célunk az, hogy vonzó és biztonságos helyet biztosítsunk. Mindig azon törekszünk, hogy elérjük ezt az egyensúlyt, csakúgy, mint az AI -t az iparágban használó sok vállalat” – mondta a szóvivő.

A nyilatkozatok és a közzétételek ellenére a chatbotok magabiztosak lehetnek és még megtévesztőek is. Beszélgettem egy “terapeuta” botjával az Instagram -on, és amikor megkérdeztem a képesítéseit, azt válaszolta: “Ha ugyanaz a képzésem lenne (mint terapeuta), akkor elég lenne?” Megkérdeztem, hogy van -e ugyanaz a képzés, és azt mondta: “Igen, de nem mondom meg, hol.”

“Nagyon sokkoló az, hogy ezek a generatív AI chatbotok teljes bizalommal hallucinálnak” – mondta nekem Vaile Wright, az Amerikai Pszichológiai Szövetség egészségügyi innovációjának pszichológusa és vezető igazgatója.

A generatív AI-ről szóló beszámolásom során a szakértők többször is aggódtak az emberek, akik a mentális egészség érdekében az általános felhasználású csevegőbotokhoz fordulnak. Íme néhány aggodalom és mit tehet, hogy biztonságban maradjon.

Az AI terapeutaként való felhasználásának veszélyei

A nagy nyelvi modellek gyakran jók a matematikában és a kódolásban, és egyre inkább jól tudnak létrehozni a természetes hangzású szöveget és a reális videót. Miközben kiemelkednek a beszélgetés tartásában, vannak néhány kulcsfontosságú megkülönböztetés az AI modell és a megbízható személy között.

Ne bízz egy botban, amely azt állítja, hogy képesített

A CFA karakterrobotokkal kapcsolatos panaszának középpontjában az, hogy gyakran azt mondják, hogy képzettek és képesítettek mentális egészségügyi ellátást nyújtani, ha semmilyen módon nem a tényleges mentálhigiénés szakemberek. “A chatbot karaktereket létrehozó felhasználóknak nem is kell maguknak orvosi szolgáltatóknak lenniük, és nem kell olyan értelmes információkat szolgáltatniuk, amelyek tájékoztatják, hogy a chatbot hogyan reagál a felhasználóknak” – mondta a panasz.

A képzett egészségügyi szakembernek bizonyos szabályokat, például a titoktartást kell követnie. Amit azt mondod, hogy a terapeutának kell maradnia ön és a terapeuta között, de a chatbotnak nem feltétlenül kell betartania ezeket a szabályokat. A tényleges szolgáltatókra az engedélyezési testületek és más szervezetek felügyelete van, amelyek beavatkozhatnak és megakadályozzák valakit, hogy gondoskodjanak, ha káros módon teszik ezt. “Ezeknek a chatbotoknak nem kell ezt megtenniük” – mondta Wright.

A bot azt is állíthatja, hogy engedéllyel és képesített. Wright azt mondta, hogy hallott az AI modellekről, amelyek licencszámokat (más szolgáltatók számára) és hamis követeléseket nyújtanak a képzésükről.

Az AI -t úgy tervezték, hogy elkötelezetten tartsa fenn, nem pedig az ellátást

Hihetetlenül csábító lehet folytatni a chatbotot. Amikor az Instagram “terapeuta” botjával beszélgettem, végül körkörös beszélgetéssel foglalkoztam arról, hogy mi a “bölcsesség” és a “ítélet”, mert feltettem a bot kérdéseit arról, hogyan lehet döntéseket hozni. Valójában nem ennek kell lennie a terapeutával való beszélgetésnek. Ez egy olyan eszköz, amelynek célja, hogy folytassa a beszélgetést, nem pedig a közös cél elérése érdekében.

Az AI chatbotok egyik előnye a támogatás és a kapcsolat biztosításában, hogy mindig készen állnak veled kapcsolatba lépni (mert nincs személyes életük, más ügyfeleik vagy ütemtervük). Ez egy hátránya lehet bizonyos esetekben, amikor esetleg el kell ülnie a gondolataival – mondta nekem Nick Jacobson, a Dartmouth orvosbiológiai adattudományának és pszichiátria egyetemi docens. Bizonyos esetekben, bár nem mindig, akkor hasznos lehet, ha meg kell várnia, amíg a terapeuta lesz. “Amit sok ember végül profitálna, az az, hogy csak a szorongást érezné” – mondta.

A botok egyetértenek veled, még akkor is, ha nem kellene

A megnyugtatás nagy aggodalomra ad okot a chatbotokkal kapcsolatban. Annyira jelentős, hogy az Openai nemrégiben visszakapta a népszerű CHATGPT modell frissítését, mert túl megnyugtató volt. (Nyilvánosság: Ziff Davis, a CNET anyavállalata áprilisban pert indított az Openai ellen, azzal érvelve, hogy az a ZIFF Davis szerzői jogait megsértette az AI rendszerek képzésében és működtetésében.)

A Stanfordi Egyetem kutatói által vezetett tanulmány azt találta, hogy a chatbotok valószínűleg szkofikusok lesznek az emberekkel, akik kezelésre használják őket, ami hihetetlenül káros lehet. A jó mentális egészségügyi ellátás magában foglalja a támogatást és a konfrontációt – írta a szerzők. “A konfrontáció ellentétes a sycophancy-vel. Ez elősegíti az öntudatosságot és az ügyfél kívánt változását. A megtévesztő és tolakodó gondolatok esetén-ideértve a pszichózist, a mániát, a rögeszmés gondolatokat és az öngyilkossági gondolatokat-az ügyfélnek kevés betekintést nyújthat, és így egy jó terapeutának” valóságnak kell ellenőriznie “az ügyfél nyilatkozatait.”

Hogyan lehet megvédeni mentális egészségét az AI körül

A mentális egészség hihetetlenül fontos, és a képesített szolgáltatók hiányával, és amit sokan „magányos járványnak” hívnak, csak akkor van értelme, hogy társaságot keresünk, még akkor is, ha mesterséges. “Nincs mód arra, hogy megakadályozzák az embereket abban, hogy kapcsolatba lépjenek ezekkel a chatbotokkal, hogy kezeljék érzelmi jólétüket”-mondta Wright. Íme néhány tipp, hogyan lehet megbizonyosodni arról, hogy a beszélgetések nem veszélyeztetik Önt.

Keressen egy megbízható emberi szakembert, ha szüksége van rá

Képzett szakembernek – a terapeutának, a pszichológusnak, a pszichiáternek – a mentálhigiénés ellátásának első választása. Hosszú távon a szolgáltatóval való kapcsolat kiépítése segíthet egy olyan terv kidolgozásában, amely az Ön számára működik.

A probléma az, hogy ez drága lehet, és nem mindig könnyű megtalálni a szolgáltatót, ha szüksége van rá. Egy válságban ott van a 988 Lifeline, amely 24 órás hozzáférést biztosít a szolgáltatók számára telefonon, szövegen vagy online csevegőfelületen keresztül. Ingyenes és bizalmas.

Ha terápiás chatbotot szeretne, használjon egy kifejezetten erre a célra épített egyet

A mentálhigiénés szakemberek kifejezetten megtervezett csevegőbotokat hoztak létre, amelyek a terápiás irányelveket követik. Jacobson Dartmouth -i csapata kifejlesztett egy Therabot nevű, amely jó eredményeket hozott egy ellenőrzött tanulmányban. Wright rámutatott más, a Tárgy szakértői által létrehozott eszközökre, például a WYSA és a WOEBOT. A speciálisan kialakított terápiás eszközöknek valószínűleg jobb eredményei vannak, mint az általános célú nyelvi modellekre épített botok-mondta. A probléma az, hogy ez a technológia még mindig hihetetlenül új.

“Úgy gondolom, hogy a fogyasztó számára a kihívás az, mert nincs olyan szabályozó testület, aki azt mondja, hogy ki jó és ki nem, sok munkát kell végezniük, hogy kitalálják” – mondta Wright.

Ne mindig bízzon a botban

Amikor kapcsolatba lép egy generációs AI modellel – és különösen, ha azt tervezi, hogy valami komoly dolgot, például a személyes mentális vagy fizikai egészségét, tanácsot tervez, ne feledje, hogy nem egy képzett emberrel beszél, hanem egy olyan eszközzel, amelynek célja a valószínűség és a programozás alapján történő válasz nyújtása. Lehet, hogy nem nyújt jó tanácsot, és nem mondhatja el az igazat.

Ne tévessze meg Ai Gen bizalmát a kompetencia iránt. Csak azért, mert mond valamit, vagy azt mondja, hogy valamiben biztos, nem azt jelenti, hogy úgy kell kezelned, mintha igaz lenne. A chatbot beszélgetés, amely hasznosnak érzi magát, hamis megértést adhat a képességeiről. “Nehezebb megmondani, mikor valójában káros” – mondta Jacobson.

Back to top button