Home Helyi A legjobb mesterséges intelligencia asszisztensek hamisan mutatják be a hírtartalmat, tanulmányi eredményeket

A legjobb mesterséges intelligencia asszisztensek hamisan mutatják be a hírtartalmat, tanulmányi eredményeket

2
0

Az Európai Műsorszolgáltatók Szövetsége (EBU) és a BBC szerdán közzétett új kutatása szerint a vezető mesterséges intelligencia asszisztensek válaszaik közel felében hamisan adják meg a hírtartalmat.

A nemzetközi kutatás 3000 választ tanulmányozott a vezető mesterséges intelligencia-asszisztensek híreivel kapcsolatos kérdésekre – olyan szoftveralkalmazások, amelyek mesterséges intelligencia segítségével értik a természetes nyelvi parancsokat a felhasználók feladatai elvégzéséhez.

14 nyelven értékelte az AI-asszisztensek pontosságát, beszerzését és a vélemény és a tény közötti különbségtétel képességét, beleértve az OpenAI ChatGPT-jét, a Microsoft Copilot-ját, a Google Gemini-jét és a Perplexity-t.

Összességében a vizsgált mesterséges intelligencia-válaszok 45 százaléka tartalmazott legalább egy jelentős problémát, és 81 százalékuk volt valamilyen probléma – derült ki a kutatásból.

A Reuters Institute 2025-ös digitális hírjelentése szerint az online hírfogyasztók mintegy hét százaléka, a 25 év alattiak 15 százaléka pedig mesterséges intelligencia-asszisztenseket használ híreinek beszerzéséhez.

A Reuters felvette a kapcsolatot a cégekkel, hogy kikérje véleményüket az eredményekről.

Az olyan mesterséges intelligencia asszisztensek, mint a Gemini, a ChatGPT, a Perplexity és a Copilot, az esetek felében, amikor a hírekről kérdezték őket, legalább egy problémát tartalmaztak. (Dado Ruvic/Illustration/Reuters)A vállalatok azt mondják, hogy javítani szeretnének

A Gemini, a Google mesterséges intelligencia asszisztense korábban a honlapján kijelentette, hogy szívesen fogadja a visszajelzéseket, hogy tovább fejleszthesse a platformot, és még hasznosabbá tegye a felhasználók számára.

Az OpenAI és a Microsoft korábban azt mondta, hogy a hallucinációk – amikor egy mesterséges intelligencia modell helytelen vagy félrevezető információkat generál, gyakran olyan tényezők miatt, mint például az elégtelen adat – olyan probléma, amelyet meg akarnak oldani.

A Perplexity azt írja a honlapján, hogy az egyik „Deep Research” mód 93,9 százalékos pontossággal büszkélkedhet a tények tekintetében.

A kutatás 3000 választ vizsgált olyan cégektől, mint a ChatGPT. (Dado Ruvic/Illustration/Reuters) Az AI-asszisztensek gyakran követnek el beszerzési hibákat

A tanulmány szerint az AI-asszisztens-válaszok harmada súlyos beszerzési hibákat mutatott, például hiányzó, félrevezető vagy helytelen hozzárendelést.

A Gemini, a Google mesterséges intelligencia-asszisztense válaszainak mintegy 72 százaléka jelentett jelentős beszerzési problémákat, szemben az összes többi asszisztens 25 százalékával.

Az összes vizsgált mesterséges intelligencia asszisztens válaszainak 20 százalékánál pontossági problémákat találtak, ideértve az elavult információkat is.

NÉZD | Miért perelnek be a kanadai hírszervezetek a ChatGPT-t:

A kanadai hírszervezetek, köztük a CBC, beperelték a ChatGPT alkotóját

A CBC/Radio-Canada, a Postmedia, a Metroland, a Toronto Star, a Globe and Mail és a The Canadian Press közös pert indított a ChatGPT készítője, az OpenAI ellen, amiért hírtartalmat használtak a ChatGPT generatív mesterséges intelligencia rendszerének képzésére. A hírszervezetek szerint az OpenAI megsérti a szerzői jogokat azáltal, hogy „tartalmat lekapar” webhelyeikről.

A tanulmányban említett példák között szerepelt, hogy az Ikrek helytelenül közölte az eldobható gőzökről szóló törvény módosításait, és a ChatGPT Ferenc pápát jelentette a jelenlegi pápának néhány hónappal halála után.

A tanulmányban 18 ország huszonkét közszolgálati médiaszervezete vett részt, köztük a CBC és a Radio-Canada, valamint mások Franciaországból, Németországból, Spanyolországból, Ukrajnából, Nagy-Britanniából és az Egyesült Államokból.

Az EBU szerint az AI-asszisztensek egyre gyakrabban váltják fel a hagyományos keresőmotorokat a hírekért, és alááshatják a közbizalmat.

„Amikor az emberek nem tudják, miben bízzanak, végül semmiben sem bíznak, és ez eltántoríthatja a demokratikus részvételt” – mondta Jean Philip De Tender, az EBU médiaigazgatója.

Az EBU jelentése arra sürgette a mesterséges intelligencia-vállalatokat, hogy javítsák mesterséges intelligencia-asszisztenseik válaszát a hírekkel kapcsolatos kérdésekre, és legyenek elszámoltathatóbbak, arra hivatkozva, hogy maguk a hírszervezetek „robusztus eljárásokkal rendelkeznek a hibák azonosítására, elismerésére és kijavítására”.

„Fontos annak biztosítása, hogy a mesterséges intelligencia asszisztensei is azonos felelősséggel tartoznak” – áll a közleményben.

Fuente de noticias