Már több mint két év telt el azóta, hogy a Chatgpt felrobbant a világ színpadára, és bár az Openai sok szempontból továbbfejlesztette, még mindig van sok akadály. Az egyik legnagyobb kérdés: hallucinációk, vagy a hamis információk tényszerűnek kell lennie. A NoyB osztrák érdekképviseleti csoport most benyújtotta második panaszát az OpenAi ellen az ilyen hallucinációkért, és egy konkrét példát nevez el, amelyben a CHATGPT állítólag – és tévesen – kijelentette, hogy egy norvég ember gyilkos.
Annak érdekében, hogy az ügyek valahogy, még rosszabbá váljanak, amikor ez az ember megkérdezte a Chatgpt -t, hogy mit tud róla, állítólag azt állította, hogy 21 év börtönre ítélték két gyermekének megölése és a harmadik meggyilkolásának megkísérlése miatt. A hallucinációt valós információkkal is meghintették, ideértve a gyermekek számát, a nemüket és a szülőváros nevét.
Noyb azt állítja, hogy ez a válasz az Openai -t megsértette a GDPR -t. "A GDPR tiszta. A személyes adatoknak pontosnak kell lenniük. És ha nem, akkor a felhasználóknak joguk van megváltoztatni, hogy tükrözzék az igazságot," A NOYB adatvédelmi ügyvédje, Joakim Söderberg kijelentette. "A CHATGPT felhasználóknak a kis nyilatkozat megmutatása, hogy a chatbot egyértelműen hibákat követhet el. Nem lehet csak a hamis információkat terjeszteni, és végül hozzáadjon egy kis nyilatkozatot, amelyben azt mondja, hogy minden, amit mondott, lehet, hogy nem igaz .."
A CHATGPT hallucinációinak további figyelemre méltó példái között szerepel egy ember csalás és elrablás vádlása, a gyermekbántalmazás bírósági riportere és a szexuális zaklatás jogi professzora, amint azt több publikáció jelentette.
Noyb első panasza az Openai -nak a hallucinációkkal kapcsolatban, 2024 áprilisában, a közszereplők pontatlan születési adagjára (tehát nem gyilkosság, de még mindig pontatlan). Az Openai megcáfolta a panaszos kérését, hogy törölje vagy frissítse születési napját, azt állítva, hogy ez nem változtathatja meg a rendszerben szereplő információkat, csak blokkolja annak használatát bizonyos utasítások esetén. A chatgpt egy nyilatkozatra válaszol, hogy az "hibákat követhet el."
Igen, van egy mondás, ami valami hasonló, mindenki hibát követ, ezért helyezik a radírokat ceruzára. De ha egy hihetetlenül népszerű AI-hajtású chatbotról van szó, ez a logika valóban érvényes? Meglátjuk, hogy az Openai hogyan reagál -e a NOYB legújabb panaszára.
Ez a cikk eredetileg az Engadget-en jelent meg a https://www.enggadget.com/ai/chatgpt-2portenty-cting-innocent-man-of-murdering-his-children-120057654.html?src=rss