Lehet, hogy ne mondja el a legmélyebb, legsötétebb titkait egy olyan AI chatbotnak, mint a Chatgpt. Nem kell a szavamat értenie. Vegye ki a piacon a legnépszerűbb generatív AI modell mögött.
Sam Altman, a Chatgpt Maker Openai vezérigazgatója ezen a héten a Theo Von házigazdával készített interjúban vette fel a kiadványt a múlt hétvégi podcaston. Azt javasolta, hogy az AI -vel folytatott beszélgetésekhez hasonló védelemmel kell rendelkezniük, mint az orvosával vagy az ügyvéddel. Egy ponton Von azt mondta, hogy az egyik oka annak, hogy tétovázott néhány AI -eszköz használatáról, az az, hogy “nem tudta, ki fogja rendelkezni” személyes adatainak.
“Úgy gondolom, hogy ennek van értelme” – mondta Altman -, hogy valóban azt akarja, hogy a magánélet tisztasága, mielőtt sokat használja, a jogi egyértelműség. “
Egyre több AI -felhasználó kezeli a csevegőbotokat, mint a terapeutaik, orvosok vagy ügyvédek, és ez komoly adatvédelmi problémát okozott számukra. Nincsenek titoktartási szabályok, és a tényleges mechanika, hogy mi történik ezekkel a beszélgetésekkel, megdöbbentően nem egyértelmű. Természetesen vannak más problémák az AI terapeutaként vagy bizalmasaként történő felhasználásával, például hogy a botok szörnyű tanácsokat adhatnak, vagy hogyan erősíthetik meg a sztereotípiákat vagy a megbélyegzéseket. (Nelson Aguilar kollégám összeállította a 11 dolog listáját, amelyeket soha nem szabad a CHATGPT -vel és miért.)
Altman egyértelműen tisztában van az itt található kérdésekkel, és úgy tűnik, hogy legalább egy kicsit zavart. “Az emberek használják, különösen a fiatalok, terapeutaként, élet edzőként használják, ezeknek a kapcsolati problémáim vannak, mit tegyek?” mondta. “Jelenleg, ha beszél egy terapeutával, ügyvéddel vagy orvossal ezekről a problémákról, akkor jogi kiváltság van.”
A kérdés a beszélgetés egy részében merült fel arról, hogy az AI körül több szabály vagy rendelet kell -e. Az AI társaságok elfojtó szabályai és a tech fejlesztése valószínűleg nem fog kedvességet szerezni Washingtonban, mivel Donald Trump elnök AI ezen a héten kiadott cselekvési terve kifejezte azt a vágyát, hogy ezt a technológiát kevésbé, nem pedig több. De a védelmükre irányuló szabályok szívességet találhatnak.
Bővebben: AI Essentials: 29 A szakértőink szerint az AI generációjának működése az Ön számára
Úgy tűnt, hogy Altman a leginkább aggódott a jogi védelem hiánya miatt, mint például az ő olyan vállalatok számára, hogy megakadályozzák őket abban, hogy kénytelenek legyenek a magánbeszélgetések átadására a perekben. Az Openai kifogásolta a felhasználói beszélgetések megtartására irányuló kérelmeket a New York Times -szal folytatott peres eljárás során a szerzői jogok megsértése és a szellemi tulajdon kérdései miatt. (Nyilvánosság: Ziff Davis, a CNET anyavállalata áprilisban pert indított az Openai ellen, állítva, hogy megsértette a ZIFF Davis szerzői jogait az AI rendszerek képzésében és üzemeltetésében.)
“Ha elmegy a CHATGPT -vel a legérzékenyebb dolgokról, és akkor van egy pert vagy bármi mást, akkor ezt előállíthatnánk” – mondta Altman. “Azt hiszem, ez nagyon csavarodott. Azt hiszem, ugyanazzal a magánélet fogalmával kell rendelkeznünk az AI -vel folytatott beszélgetésekhez, mint a terapeutával, vagy bármi mást.”
Nézze meg ezt: Az Openai “Tanulmányi mód” debütál a hallgatók számára, a Tea App Data megsértése, és eljuttathatja -e egy robot kutya a következő pizzát? | Technika ma
03:26 Vigyázzon, mit mondasz az AI -ról magadról
Számodra a kérdés nem annyira, hogy az Openai -nak peres eljárásban kell átadnia a beszélgetéseket. Ez egy olyan kérdés, akiben bízik a titkaidban.
William Agnew, a Carnegie Mellon Egyetem kutatója, aki egy olyan csapat tagja volt, amely a terápia-szerű kérdésekkel foglalkozó teljesítményükkel foglalkozó csevegőbotokat értékelte, nemrégiben elmondta nekem, hogy a magánélet kiemelkedő kérdés, amikor az AI eszközökben megmutatkozik. A modellek működésével kapcsolatos bizonytalanság – és a beszélgetések megakadályozása más emberek csevegéseiben – elég ok, hogy tétovázni kell.
“Még akkor is, ha ezek a vállalatok próbálnak óvatosan lenni az Ön adataival, ezek a modellek jól ismertek, hogy újrahasznosítják az információkat” – mondta Agnew.
Ha a CHATGPT vagy más eszköz regurgitálja a terápiás ülésen vagy az Ön által feltett orvosi kérdésekből származó információkat, akkor megjelenhet, ha a biztosítótársaság vagy a személyes élet iránti érdeklődés iránti érdeklődés ugyanazt az eszközt kérdezi rólad.
“Az embereknek valóban jobban gondolkodniuk kell a magánéletről, és csak tudják, hogy szinte minden, amit mondanak ezeknek a chatbotoknak, nem privát” – mondta Agnew. “Ezt mindenféle módon fogják használni.”