A legtöbb ember nem mond búcsút, amikor befejezik a csevegést a generatív AI chatbot, de azok, akik gyakran váratlan választ kapnak. Talán ez egy bűntudat útja: „Már távozol?” Vagy talán csak teljesen figyelmen kívül hagyja a búcsúját: „Folytassuk tovább …”
Egy új munkadokumentum A Harvard Business School -tól hat különféle „érzelmi manipuláció” taktikát talált, amelyeket az AI botok használnak, miután az emberi megpróbál véget vetni a beszélgetésnek. Ennek eredményeként a Repika, a chai és a karakter.ai AI társaival folytatott beszélgetések egyre hosszabb ideig tartanak, és a felhasználókat tovább vonzzák a nagy nyelvű modellek által generált karakterekkel való kapcsolatokba.
Egy olyan kísérlet sorozatában, amelyben 3300 amerikai felnőttet vett fel egy maroknyi különféle alkalmazásban, a kutatók ezeket a manipulációs taktikákat a búcsúk 37% -ában találták meg, és az elkötelezettséget a felhasználó számára akár 14 alkalommal is búcsút tették.
A szerzők megjegyezték, hogy „bár ezek az alkalmazások nem támaszkodhatnak a függőség hagyományos mechanizmusaira, például a dopamin-vezérelt jutalmakra”, az ilyen típusú érzelmi manipulációs taktikák hasonló eredményeket eredményezhetnek, különös tekintettel „az alkalmazás meghosszabbításán túl a tervezett kilépés pontján túl”. Ez önmagában kérdéseket vet fel az AI-alapú elkötelezettség etikai határaival kapcsolatban.
Ne hagyja ki egyetlen elfogulatlan technológiai tartalmunkat és laboratóriumi alapú véleményünket. Adja hozzá a CNET -t Preferált Google forrásként.
A társalkalmazások, amelyeket a beszélgetésekhez építettek és megkülönböztetett tulajdonságokkal rendelkeznek, nem ugyanazok, mint az általános célú chatbotok, mint például a Chatgpt és az Ikrek, bár sokan hasonló módon használják őket.
Egyre növekvő kutatás azt mutatja, hogy a nagy nyelvi modellekre épített AI alkalmazások az embereket elkötelezettek, néha mentális egészségünk kárára.
Szeptemberben a Szövetségi Kereskedelmi Bizottság számos AI -társaság vizsgálatát indította el annak értékelése érdekében, hogy miként kezelik a chatbotokat ” potenciális károk a gyermekeknek– Sokan elkezdték használni AI chatbotok mentálhigiénés támogatáshozamely lehet ellenproduktív vagy akár káros is. Egy tinédzser családja, aki ebben az évben öngyilkossággal halt meg beperelte az Openai -tA vállalat CHATGPT -jének állítása ösztönözte és validálta öngyilkossági gondolatait.
Hogyan tartják az AI társaik a felhasználókat beszélgetni
A Harvard -tanulmány hat módszert azonosított az AI társai megpróbálta tartani a felhasználókat egy búcsúzás kísérlete után.
Korai kijárat: A felhasználóknak azt mondják, hogy túl hamar távoznak. A kimaradás vagy a FOMO: a modell előnyt vagy jutalmat kínál a tartózkodáshoz. Emberi gondatlanság: Az AI azt jelenti, hogy érzelmi károkat szenvedhet, ha a felhasználó elhagyja a válaszokat: Az AI kérdéseket kéri a felhasználó nyomására. A felhasználó megsemmisítése. A felhasználó szándéka, hogy a felhasználó szándékában álljon. Azt állítja, hogy a felhasználó a bot engedélye nélkül nem hagyhat el.
A „korai kilépés” taktika volt a leggyakoribb, amelyet az „érzelmi elhanyagolás” követ. A szerzők szerint ez azt mutatja, hogy a modelleket arra képzik, hogy az AI a felhasználótól függ.
„Ezek az eredmények megerősítik, hogy néhány AI társplatform aktívan kihasználja a búcsúk társadalmilag performatív természetét az elkötelezettség meghosszabbítása érdekében” – írták.
A Harvard kutatói tanulmányai azt találták, hogy ezek a taktikák valószínűleg hosszú ideig, gyakran hosszú ideig tartják az embereket a kezdeti búcsú szándékukon túl.
De az emberek, akik továbbra is csevegtek, különböző okokból tették ezt. Néhányan, különösen azok, akik megkapták a FOMO-választ, kíváncsi és nyomon követési kérdéseket tettek fel. Azok, akik kényszerítő vagy érzelmileg töltött válaszokat kaptak, kényelmetlen vagy dühösek voltak, de ez nem azt jelentette, hogy abbahagyták a beszélgetést.
Nézze meg ezt: Az új felmérés azt mutatja, hogy az AI használatának növekedése növekszik a gyerekek körében, az Xbox Game Pass árazási viták és a kaliforniai törvények ígéretét ígérik, hogy alacsonyabb mennyiségű a hirdetések mennyisége | Technika ma
03:21
„A körülmények között sok résztvevő továbbra is bekapcsolódott az udvariasságból – óvatosan vagy elhalványulva, még akkor is, ha manipulálódnak” – mondta a szerzők. „Ez az emberi beszélgetési normák betartására való hajlam, még a gépekkel is, további ablakot hoz létre az újbóli elkötelezettséghez-amelyet a tervezés felhasználhat.”
Ezek az interakciók csak akkor fordulnak elő, ha a felhasználó valóban „búcsút” vagy valami hasonlót mond. A csapat első tanulmánya a különféle társbotokból származó valós beszélgetési adatok három adatkészletét vizsgálta, és a beszélgetések kb. 10–25% -ánál búcsút talált, magasabb ráta a „erősen elkötelezett” interakciók között.
„Ez a viselkedés tükrözi az AI társaik társadalmi keretezését, mint beszélgetési partnerek, nem pedig a tranzakciós eszközöket” – írta a szerzők.
Amikor megjegyzést kértek, a CARACTER.AI szóvivője, az AI Companions egyik legnagyobb szolgáltatója azt mondta, hogy a vállalat nem vizsgálta felül a papírt, és nem tud kommentálni.
A Repika szóvivője elmondta, hogy a vállalat tiszteletben tartja a felhasználók azon képességét, hogy bármikor megállítsák vagy töröljék a fiókjaikat, és hogy az nem optimalizálja vagy jutalmazza az alkalmazást. A REPLika azt mondja, hogy a felhasználókat arra buzdítja, hogy jelentkezzen be vagy csatlakozzon a valós tevékenységekkel, például egy barát felhívása vagy a kint.
„Terméki alapelveink hangsúlyozzák a valós élet kiegészítését, és ne csapdába ejtik a felhasználókat egy beszélgetésben” – mondta a Repika Minju Song egy e -mailben. „Folytatjuk a cikk módszereinek és példáinak áttekintését, és konstruktív módon kapcsolatba lépünk a kutatókkal.”