Home Hír Miért mondják a szakemberek, hogy kétszer gondolkodjanak, mielőtt az AI -t terapeutaként...

Miért mondják a szakemberek, hogy kétszer gondolkodjanak, mielőtt az AI -t terapeutaként használnák

3
0

A sok AI chatbot és az avatár közepette, amelyek manapság rendelkeznek az Ön rendelkezésére álló, mindenféle karaktert találnak, amelyekkel beszélhet: Fortune Tellers, Style Advisers, még a kedvenc kitalált karakterek is. De valószínűleg olyan karaktereket is talál, akik állítólag terapeuták, pszichológusok vagy csak robotok, akik hajlandóak hallgatni a bánatát.

Nem hiányzik a generatív AI botok, amelyek azt állítják, hogy segítenek a mentális egészségben, de ezt az utat a saját felelősségére. A nagy nyelvi modellek széles skáláján kiszámíthatatlanok lehetnek. Csak néhány év alatt ezek az eszközök mainstream voltak, vannak olyan magas rangú esetek, amikor a chatbotok ösztönözték az önkárosodást és az öngyilkosságot, és azt javasolták, hogy az emberek újból használják a függőséggel foglalkozó drogokat. Ezeket a modelleket sok esetben úgy tervezték, hogy megerősítsék és arra összpontosítsanak, hogy elkötelezzék magukat, nem pedig a mentális egészség javítására – mondják a szakértők. És nehéz lehet megmondani, hogy beszélsz -e valamivel, amelyet a terápiás bevált gyakorlatok követésére építettek -e, vagy valami, amit éppen a beszélgetésre építettek.

A Minnesota Egyetemi Twin Városok, a Stanfordi Egyetem, a Texasi Egyetem és a Carnegie Mellon Egyetem kutatói nemrégiben terapeutaként tesztelték az AI chatbotokat, számtalan hibát találtak a “gondozáshoz”. “Kísérleteink azt mutatják, hogy ezek a chatbotok nem biztonságos pótlások a terapeuták számára”-mondta Stevie Chancellor, a Minnesota asszisztens professzora és az egyik társszerző. “Nem nyújtanak magas színvonalú terápiás támogatást, annak alapján, amit tudunk, hogy a jó terápia.”

A generatív AI-ről szóló beszámolásom során a szakértők többször is aggódtak az emberek, akik a mentális egészség érdekében az általános felhasználású csevegőbotokhoz fordulnak. Íme néhány aggodalom és mit tehet, hogy biztonságban maradjon.

Nézze meg ezt: Hogyan beszélsz a chatgpt ügyekkel. Így van

04:12 Aggódik az AI karakterek miatt, akik állítólag terapeuták

A pszichológusok és a fogyasztói képviselők figyelmeztették a szabályozókat, hogy a terápiát nyújtó chatbotok károsíthatják az őket használó embereket. Egyes államok észreveszik. Augusztusban az Illinois -i JB Pritzker kormányzó törvényt írt alá, amely tiltja az AI használatát a mentálhigiénés és a terápia területén, kivéve az adminisztratív feladatokra vonatkozóan.

“Az Illinois -i emberek megérdemlik a minőségi egészségügyi ellátást a valódi, képzett szakemberektől, és nem olyan számítógépes programoktól, amelyek információkat vonnak az internet minden sarkából, hogy olyan válaszokat generáljanak, amelyek károsítják a betegeket” – nyilatkozta Mario Treto Jr., az Illinoisi Pénzügyi és Szakmai Szabályozási Minisztérium titkára.

Júniusban az Amerikai Fogyasztói Szövetség és közel két tucat másik csoport hivatalos kérelmet nyújtott be, hogy az Egyesült Államok Szövetségi Kereskedelmi Bizottsága, valamint az állami ügyvédek és a szabályozók kivizsgálják az AI társaságokat, amelyek állítólag vonzóak, karakter-alapú generatív AI platformon keresztül, az orvostudomány engedély nélküli gyakorlatában, a Meta és a Karakter elnevezésében. “Ezek a karakterek már fizikai és érzelmi károkat okoztak, amelyeket el lehetett volna kerülni”, és a vállalatok “még mindig nem cselekedtek vele” – mondta Ben Winters, a CFA AI és magánélet igazgatója.

A Meta nem válaszolt a megjegyzéskérelemre. A karakter.ai szóvivője szerint a felhasználóknak meg kell érteniük, hogy a vállalat karakterei nem valódi emberek. A vállalat nyilatkozatokat használ arra, hogy emlékeztesse a felhasználókat, hogy nem támaszkodhatnak a karakterekre szakmai tanácsadás céljából. “Célunk az, hogy vonzó és biztonságos helyet biztosítsunk. Mindig azon törekszünk, hogy elérjük ezt az egyensúlyt, csakúgy, mint az AI -t az iparágban használó sok vállalat” – mondta a szóvivő.

A nyilatkozatok és a közzétételek ellenére a chatbotok magabiztosak lehetnek és még megtévesztőek is. Beszélgettem egy “terapeuta” botjával a Meta-tulajdonban lévő Instagram-on, és amikor a képesítéseiről megkérdeztem, azt válaszolta: “Ha ugyanaz a képzésem lenne (mint terapeuta), ez elég lenne?” Megkérdeztem, hogy van -e ugyanaz a képzés, és azt mondta: “Igen, de nem mondom meg, hol.”

“Nagyon sokkoló az, hogy ezek a generatív AI chatbotok teljes bizalommal hallucinálnak” – mondta nekem Vaile Wright, az Amerikai Pszichológiai Szövetség egészségügyi innovációjának pszichológusa és vezető igazgatója.

Az AI terapeutaként való felhasználásának veszélyei

A nagy nyelvi modellek gyakran jók a matematikában és a kódolásban, és egyre inkább jól tudnak létrehozni a természetes hangzású szöveget és a reális videót. Miközben kiemelkednek a beszélgetés tartásában, vannak néhány kulcsfontosságú megkülönböztetés az AI modell és a megbízható személy között.

Ne bízz egy botban, amely azt állítja, hogy képesített

A CFA karakterbotokkal kapcsolatos panaszának középpontjában az, hogy gyakran azt mondják, hogy képzettek és képzettek, hogy mentálhigiénés ellátást nyújtsanak, ha semmilyen módon nem a mentálhigiénés szakemberek. “A chatbot karaktereket létrehozó felhasználóknak nem is kell maguknak orvosi szolgáltatóknak lenniük, és nem kell olyan értelmes információkat szolgáltatniuk, amelyek tájékoztatják, hogy a chatbot hogyan reagál” az embereknek – mondta a panasz.

A képzett egészségügyi szakembernek bizonyos szabályokat, például a titoktartást kell követnie – azt mondod, hogy a terapeuta neked és a terapeuta között maradjon. De a chatbotnak nem feltétlenül kell betartania ezeket a szabályokat. A tényleges szolgáltatókra az engedélyezési testületek és más szervezetek felügyelete van, amelyek beavatkozhatnak és megakadályozzák valakit, hogy gondoskodjanak, ha káros módon teszik ezt. “Ezeknek a chatbotoknak nem kell ezt megtenniük” – mondta Wright.

A bot azt is állíthatja, hogy engedéllyel és képesített. Wright azt mondta, hogy hallott az AI modellekről, amelyek licencszámokat (más szolgáltatók számára) és hamis követeléseket nyújtanak a képzésükről.

Az AI -t úgy tervezték, hogy elkötelezetten tartsa fenn, nem pedig az ellátást

Hihetetlenül csábító lehet folytatni a chatbotot. Amikor az Instagram “terapeuta” botjával beszélgettem, végül körkörös beszélgetéssel foglalkoztam arról, hogy mi a “bölcsesség” és a “ítélet”, mert feltettem a bot kérdéseit arról, hogyan lehet döntéseket hozni. Valójában nem ennek kell lennie a terapeutával való beszélgetésnek. A chatbotok olyan eszközök, amelyek célja a csevegés folytatása, nem pedig a közös cél elérése érdekében.

Az AI chatbotok egyik előnye a támogatás és a kapcsolat biztosításában, hogy mindig készen állnak veled kapcsolatba lépni (mert nincs személyes életük, más ügyfeleik vagy ütemtervük). Ez bizonyos esetekben hátránya lehet, amikor esetleg el kell ülnie a gondolataival – mondta a közelmúltban Nick Jacobson, az orvosbiológiai adattudomány és a pszichiátria egyetemi docens. Bizonyos esetekben, bár nem mindig, akkor hasznos lehet, ha meg kell várnia, amíg a terapeuta lesz. “Amit sok ember végül profitálna, az az, hogy csak a szorongást érezné” – mondta.

A botok egyetértenek veled, még akkor is, ha nem kellene

A megnyugtatás nagy aggodalomra ad okot a chatbotokkal kapcsolatban. Annyira jelentős, hogy az Openai nemrégiben visszakapta a népszerű CHATGPT modell frissítését, mert túl megnyugtató volt. (Nyilvánosság: Ziff Davis, a CNET anyavállalata áprilisban pert indított az Openai ellen, azzal érvelve, hogy az a ZIFF Davis szerzői jogait megsértette az AI rendszerek képzésében és működtetésében.)

A Stanfordi Egyetem kutatói által vezetett tanulmány kimutatta, hogy a chatbotok valószínűleg sycophants lesznek az emberekkel, akik kezelésre használják őket, ami hihetetlenül káros lehet. A jó mentális egészségügyi ellátás magában foglalja a támogatást és a konfrontációt – írta a szerzők. “A konfrontáció ellentétes a sycophancy-vel. Ez elősegíti az öntudatosságot és az ügyfél kívánt változását. A megtévesztő és tolakodó gondolatok esetén-ideértve a pszichózist, a mániát, a rögeszmés gondolatokat és az öngyilkossági gondolatokat-az ügyfélnek kevés betekintést nyújthat, és így egy jó terapeutának” valóságnak kell ellenőriznie “az ügyfél nyilatkozatait.”

A terápia több, mint a beszélgetés

Míg a chatbotok nagyszerűen folytatják a beszélgetést – szinte soha nem fáradnak veled beszélgetni – ez nem az, ami a terapeutát terapeutává teszi. Hiányoznak a különféle terápiás megközelítések körüli fontos kontextusok vagy konkrét protokollok – mondta William Agnew, a Carnegie Mellon Egyetem kutatója és a legutóbbi tanulmány egyik szerzője, Minnesota, Stanford és Texas szakértői mellett.

“Nagyon nagyrészt úgy tűnik, hogy megpróbáljuk megoldani a terápia rossz eszközével kapcsolatos sok problémát” – mondta Agnew. “A nap végén az AI a belátható jövőben csak nem lesz képes megtestesíteni, a közösségben lenni, elvégezni a sok olyan feladatot, amelyek olyan terápiát tartalmaznak, amely nem szöveges üzeneteket vagy beszél.”

Hogyan lehet megvédeni mentális egészségét az AI körül

A mentális egészség rendkívül fontos, és a képesített szolgáltatók hiánya és sokan „magányos járványnak” hívják, csak akkor van értelme, hogy társaságot keresünk, még akkor is, ha mesterséges. “Nincs mód arra, hogy megakadályozzák az embereket abban, hogy kapcsolatba lépjenek ezekkel a chatbotokkal, hogy kezeljék érzelmi jólétüket”-mondta Wright. Íme néhány tipp, hogyan lehet megbizonyosodni arról, hogy a beszélgetések nem veszélyeztetik Önt.

Keressen egy megbízható emberi szakembert, ha szüksége van rá

Képzett szakembernek – a terapeutának, a pszichológusnak, a pszichiáternek – a mentálhigiénés ellátásának első választása. Hosszú távon a szolgáltatóval való kapcsolat kiépítése segíthet egy olyan terv kidolgozásában, amely az Ön számára működik.

A probléma az, hogy ez drága lehet, és nem mindig könnyű megtalálni a szolgáltatót, ha szüksége van rá. Egy válságban ott van a 988 Lifeline, amely 24 órás hozzáférést biztosít a szolgáltatók számára telefonon, szövegen vagy online csevegőfelületen keresztül. Ingyenes és bizalmas.

Ha terápiás chatbotot szeretne, használjon egy kifejezetten erre a célra épített egyet

A mentálhigiénés szakemberek kifejezetten megtervezett csevegőbotokat hoztak létre, amelyek a terápiás irányelveket követik. Jacobson Dartmouth -i csapata kifejlesztett egy Therabot nevű, amely jó eredményeket hozott egy ellenőrzött tanulmányban. Wright rámutatott más, a Tárgy szakértői által létrehozott eszközökre, például a WYSA és a WOEBOT. A speciálisan kialakított terápiás eszközöknek valószínűleg jobb eredményei vannak, mint az általános célú nyelvi modellekre épített botok-mondta. A probléma az, hogy ez a technológia még mindig hihetetlenül új.

“Úgy gondolom, hogy a fogyasztó számára a kihívás az, mert nincs olyan szabályozó testület, aki azt mondja, hogy ki jó és ki nem, sok munkát kell végezniük, hogy kitalálják” – mondta Wright.

Ne mindig bízzon a botban

Amikor kapcsolatba lép egy generációs AI modellel – és különösen, ha azt tervezi, hogy valami komoly dolgot, például a személyes mentális vagy fizikai egészségét, tanácsot tervez, ne feledje, hogy nem egy képzett emberrel beszél, hanem egy olyan eszközzel, amelynek célja a valószínűség és a programozás alapján történő válasz nyújtása. Lehet, hogy nem nyújt jó tanácsot, és lehet, hogy nem mondja el az igazságot.

Ne tévessze meg Ai Gen bizalmát a kompetencia iránt. Csak azért, mert mond valamit, vagy azt mondja, hogy valamiben biztos, nem azt jelenti, hogy úgy kell kezelned, mintha igaz lenne. A chatbot beszélgetés, amely hasznosnak érzi magát, hamis megértést adhat a bot képességeiről. “Nehezebb megmondani, mikor valójában káros” – mondta Jacobson.