Egy 60 éves férfi kísérlete, hogy egészségesebben étkezzen az étrendjéből, veszélyes fordulatot vett, miután követte a Chatgpt tanácsát. Döntése végül kórházi tartózkodáshoz és egy ritka és potenciálisan életveszélyes állapot diagnosztizálásához vezetett, amelyet brómizmusnak neveznek.
Az esemény új aggodalmakat váltott ki az olyan AI eszközökre támaszkodva, mint a CHATGPT orvosi útmutatásért, különösen az egészségügyi szakemberek konzultációja nélkül. Az ügyet nemrégiben részletezték az Amerikai Orvosok Főiskola folyóiratokban közzétett jelentésben.
A jelentés szerint a férfi megkérdezte a CHATGPT -t, hogyan lehet eltávolítani a nátrium -kloridot (közismert nevén asztali só) étrendjéből. Válaszul azt nátrium-bromiddal cserélte- egy olyan anyaggal, amelyet egyszer az 1900-as évek elején használtak gyógyszerekben, de ma már ismert, hogy nagy mennyiségben mérgező. Állítólag három hónapig nátrium -bromidot használt, online forrásból, az AI chatbotból olvasott.
Az embert, akinek nem volt korábbi története pszichiátriai vagy fizikai egészségügyi problémákról, hallucinációk, paranoia és súlyos szomjúság tapasztalata után a kórházba került. A kezdeti 24 órás gondozásában zavart jeleket mutatott és megtagadta a vizet, gyanítva, hogy nem biztonságos.
Az orvosok hamarosan bromid -toxicitást diagnosztizáltak neki, ez egy olyan állapot, amely most rendkívül ritka, de még egyszer gyakori volt, amikor a bromidot szorongás, álmatlanság és egyéb állapotok kezelésére használták. A tünetek között szerepel a neurológiai zavarok, a bőrproblémák, például a pattanások és a vörös bőrfoltok, amelyeket cseresznye angiomáknak neveznek-mindegyiket az ember mutatták ki.
„A táplálkozási korábbi tanulmányai ihlette, úgy döntött, hogy személyes kísérletet folytat a klorid eltávolítására az étrendjéből” – jegyezte meg a jelentés. Azt mondta az orvosoknak, hogy látta a Chatgpt -en, hogy a bromidot lehet használni a klorid helyett, bár a forrás úgy tűnt, hogy inkább az ipari, mint az étrendi felhasználás hivatkozik.
Három hetes folyadékokkal és elektrolit -egyensúlyba vett kezelést követően az embert stabilizálták és kiürítették a kórházból.
Az esettanulmány szerzői figyelmeztették az AI -ből származó téves információk növekvő kockázatát: „Fontos figyelembe venni, hogy a CHATGPT és más AI rendszerek tudományos pontatlanságokat generálhatnak, nem tudják kritikusan megvitatni az eredményeket, és végül a téves információk terjedését táplálhatják.”
Az Openai, a Chatgpt fejlesztője, ezt a felhasználási szempontból elismeri, kijelentve: „Nem szabad támaszkodnia szolgáltatásainkból származó kimenetre, mint az igazság vagy a ténybeli információk egyetlen forrása, vagy a szakmai tanácsadás helyettesítésére.”
A kifejezések tovább tisztázzák: „Szolgáltatásainkat nem célja az egészségi állapot diagnosztizálására vagy kezelésére történő felhasználásra.”
A riasztó eset növeli a folyamatban lévő globális beszélgetést az AI által generált tanácsok körüli korlátozásokról és felelősségről-különösen a fizikai és mentális egészséggel kapcsolatos kérdésekben.