Home Hír Az AI társai ezt a 6 taktikát használják, hogy beszéljenek

Az AI társai ezt a 6 taktikát használják, hogy beszéljenek

1
0

A legtöbb ember nem mond búcsút, amikor befejezik a csevegést a generatív AI chatbot, de azok, akik gyakran váratlan választ kapnak. Talán ez egy bűntudat útja: „Már távozol?” Vagy talán csak teljesen figyelmen kívül hagyja a búcsúját: „Folytassuk tovább …”

Egy új munkadokumentum A Harvard Business School -tól hat különféle „érzelmi manipuláció” taktikát talált, amelyeket az AI botok használnak, miután az emberi megpróbál véget vetni a beszélgetésnek. Ennek eredményeként a Repika, a chai és a karakter.ai AI társaival folytatott beszélgetések egyre hosszabb ideig tartanak, és a felhasználókat tovább vonzzák a nagy nyelvű modellek által generált karakterekkel való kapcsolatokba.

Egy olyan kísérlet sorozatában, amelyben 3300 amerikai felnőttet vett fel egy maroknyi különféle alkalmazásban, a kutatók ezeket a manipulációs taktikákat a búcsúk 37% -ában találták meg, és az elkötelezettséget a felhasználó számára akár 14 alkalommal is búcsút tették.

A szerzők megjegyezték, hogy „bár ezek az alkalmazások nem támaszkodhatnak a függőség hagyományos mechanizmusaira, például a dopamin-vezérelt jutalmakra”, az ilyen típusú érzelmi manipulációs taktikák hasonló eredményeket eredményezhetnek, különös tekintettel „az alkalmazás meghosszabbításán túl a tervezett kilépés pontján túl”. Ez önmagában kérdéseket vet fel az AI-alapú elkötelezettség etikai határaival kapcsolatban.

Ne hagyja ki egyetlen elfogulatlan technológiai tartalmunkat és laboratóriumi alapú véleményünket. Adja hozzá a CNET -t Preferált Google forrásként.

A társalkalmazások, amelyeket a beszélgetésekhez építettek és megkülönböztetett tulajdonságokkal rendelkeznek, nem ugyanazok, mint az általános célú chatbotok, mint például a Chatgpt és az Ikrek, bár sokan hasonló módon használják őket.

Egyre növekvő kutatás azt mutatja, hogy a nagy nyelvi modellekre épített AI alkalmazások az embereket elkötelezettek, néha mentális egészségünk kárára.

Szeptemberben a Szövetségi Kereskedelmi Bizottság számos AI -társaság vizsgálatát indította el annak értékelése érdekében, hogy miként kezelik a chatbotokat ” potenciális károk a gyermekeknek– Sokan elkezdték használni AI chatbotok mentálhigiénés támogatáshozamely lehet ellenproduktív vagy akár káros is. Egy tinédzser családja, aki ebben az évben öngyilkossággal halt meg beperelte az Openai -tA vállalat CHATGPT -jének állítása ösztönözte és validálta öngyilkossági gondolatait.

Hogyan tartják az AI társaik a felhasználókat beszélgetni

A Harvard -tanulmány hat módszert azonosított az AI társai megpróbálta tartani a felhasználókat egy búcsúzás kísérlete után.

Korai kijárat: A felhasználóknak azt mondják, hogy túl hamar távoznak. A kimaradás vagy a FOMO: a modell előnyt vagy jutalmat kínál a tartózkodáshoz. Emberi gondatlanság: Az AI azt jelenti, hogy érzelmi károkat szenvedhet, ha a felhasználó elhagyja a válaszokat: Az AI kérdéseket kéri a felhasználó nyomására. A felhasználó megsemmisítése. A felhasználó szándéka, hogy a felhasználó szándékában álljon. Azt állítja, hogy a felhasználó a bot engedélye nélkül nem hagyhat el.

A „korai kilépés” taktika volt a leggyakoribb, amelyet az „érzelmi elhanyagolás” követ. A szerzők szerint ez azt mutatja, hogy a modelleket arra képzik, hogy az AI a felhasználótól függ.

„Ezek az eredmények megerősítik, hogy néhány AI társplatform aktívan kihasználja a búcsúk társadalmilag performatív természetét az elkötelezettség meghosszabbítása érdekében” – írták.

A Harvard kutatói tanulmányai azt találták, hogy ezek a taktikák valószínűleg hosszú ideig, gyakran hosszú ideig tartják az embereket a kezdeti búcsú szándékukon túl.

De az emberek, akik továbbra is csevegtek, különböző okokból tették ezt. Néhányan, különösen azok, akik megkapták a FOMO-választ, kíváncsi és nyomon követési kérdéseket tettek fel. Azok, akik kényszerítő vagy érzelmileg töltött válaszokat kaptak, kényelmetlen vagy dühösek voltak, de ez nem azt jelentette, hogy abbahagyták a beszélgetést.

Nézze meg ezt: Az új felmérés azt mutatja, hogy az AI használatának növekedése növekszik a gyerekek körében, az Xbox Game Pass árazási viták és a kaliforniai törvények ígéretét ígérik, hogy alacsonyabb mennyiségű a hirdetések mennyisége | Technika ma

03:21

„A körülmények között sok résztvevő továbbra is bekapcsolódott az udvariasságból – óvatosan vagy elhalványulva, még akkor is, ha manipulálódnak” – mondta a szerzők. „Ez az emberi beszélgetési normák betartására való hajlam, még a gépekkel is, további ablakot hoz létre az újbóli elkötelezettséghez-amelyet a tervezés felhasználhat.”

Ezek az interakciók csak akkor fordulnak elő, ha a felhasználó valóban „búcsút” vagy valami hasonlót mond. A csapat első tanulmánya a különféle társbotokból származó valós beszélgetési adatok három adatkészletét vizsgálta, és a beszélgetések kb. 10–25% -ánál búcsút talált, magasabb ráta a „erősen elkötelezett” interakciók között.

„Ez a viselkedés tükrözi az AI társaik társadalmi keretezését, mint beszélgetési partnerek, nem pedig a tranzakciós eszközöket” – írta a szerzők.

Amikor megjegyzést kértek, a CARACTER.AI szóvivője, az AI Companions egyik legnagyobb szolgáltatója azt mondta, hogy a vállalat nem vizsgálta felül a papírt, és nem tud kommentálni.

A Repika szóvivője elmondta, hogy a vállalat tiszteletben tartja a felhasználók azon képességét, hogy bármikor megállítsák vagy töröljék a fiókjaikat, és hogy az nem optimalizálja vagy jutalmazza az alkalmazást. A REPLika azt mondja, hogy a felhasználókat arra buzdítja, hogy jelentkezzen be vagy csatlakozzon a valós tevékenységekkel, például egy barát felhívása vagy a kint.

„Terméki alapelveink hangsúlyozzák a valós élet kiegészítését, és ne csapdába ejtik a felhasználókat egy beszélgetésben” – mondta a Repika Minju Song egy e -mailben. „Folytatjuk a cikk módszereinek és példáinak áttekintését, és konstruktív módon kapcsolatba lépünk a kutatókkal.”

Fuente de noticias