Hír

A Google AI áttekintései bizalmas ostobasággal magyarázzák az összetett idiómákat

A nyelv szinte végtelenül bonyolultnak tűnhet, a belső viccek és az idiómák néha csak egy kis embercsoport számára jelentettek, és értelmetlennek tűnnek a többiek számára. A Generative AI -nek köszönhetően még a héten értelmetlennek talált értelmetlen, mivel az internet egy patak pisztrángként robbant fel a Google Search AI áttekintésének azon képessége miatt, hogy a mondatokat soha nem mondják ki.

Mit, még soha nem hallottad a “fújott pisztrángként felrobbant” kifejezést? Persze, csak kitaláltam, de a Google AI áttekintéseinek eredménye azt mondta nekem, hogy ez egy “köznyelvi módja annak, hogy valami felrobbant vagy gyorsan szenzációvá váljon”, valószínűleg a halak szemet gyönyörködtető színeire és jelöléseire utalva. Nem, ennek nincs értelme.

Lehetséges, hogy a tendencia a szálakon kezdődött, ahol a szerző és a forgatókönyvíró, Meaghan Wilson Anastasios megosztotta, mi történt, amikor a “Mogyoróvaj -platform sarkú cipőjét” kereste. A Google egy (nem valódi) tudományos kísérletre hivatkozó eredményt adott vissza, amelyben a mogyoróvajat használták a gyémántok nagynyomású létrehozásának bemutatására.

Más közösségi média webhelyekre költözött, mint például a Bluesky, ahol az emberek megosztották a Google olyan kifejezések értelmezését, mint például: “Nem tudsz kétszer nyalni egy borzot”. A játék: Keressen egy regény, értelmetlen mondatot, amelynek végén “jelentése” van.

A dolgok onnan gördültek.

Jon Reed/CNET képernyőképek képernyőképe: Jon Reed/CNET

Ez a mém több okból érdekes, mint képregény megkönnyebbülés. Ez megmutatja, hogy a nagy nyelvi modellek milyen feszültek lehetnek egy olyan választ, amely helyesen hangzik, nem pedig a helyes.

“Ezeket úgy tervezték, hogy folyékonyan, hihető hangzású válaszokat generáljanak, még akkor is, ha az input teljesen értelmetlen”-mondta Yafang Li, a Memphisi Egyetem Fogelman üzleti és közgazdaságtan Fogelman üzleti és közgazdasági főiskolájának asszisztens. “Nem képzettek az igazság ellenőrzésére. Képzettek a mondat teljesítésére.”

Mint a ragasztó a pizzára

A összeállított mondások hamis jelentései visszahívják az emlékeket a Google AI áttekintéséről szóló túl igaz történetekről, amelyek hihetetlenül helytelen válaszokat adnak az alapvető kérdésekre-például amikor azt javasolta, hogy a pizzára ragasztott a sajt botja.

Ez a tendencia legalább egy kicsit ártalmatlannak tűnik, mert nem a cselekvési tanácsokra összpontosít. Úgy értem, egy remélem, hogy senki sem próbál egyszer, sokkal kevésbé kétszer nyalni. A mögötte álló probléma azonban ugyanaz – egy nagy nyelvi modell, mint például a Google Ikrek az AI áttekintése mögött, megpróbálja megválaszolni a kérdéseit, és megvalósítható választ kínál. Még akkor is, ha az, amit ad neked, az ostobaság.

A Google szóvivője szerint az AI áttekintéseit úgy tervezték, hogy megjelenítsék a legfontosabb webes eredmények által támogatott információkat, és hogy pontossági arányuk összehasonlítható a többi keresési funkcióval.

“Amikor az emberek értelmetlen vagy” hamis előfeltételek “kereséseket végeznek, rendszereink megpróbálják megtalálni a legrelevánsabb eredményeket a rendelkezésre álló korlátozott webtartalom alapján” – mondta a Google szóvivője. “Ez igaz a keresésre, és egyes esetekben az AI áttekintések is kiváltnak annak érdekében, hogy hasznos kontextust biztosítsanak.”

Ez a konkrét eset egy “Data érvénytelen”, ahol a keresési lekérdezéshez nem sok releváns információ áll rendelkezésre. A szóvivő azt mondta, hogy a Google azon dolgozik, hogy korlátozza, amikor az AI áttekintések megjelennek a keresésekben, elegendő információ nélkül, és megakadályozzák őket, hogy félrevezető, szatirikus vagy haszontalan tartalmat biztosítsanak. A Google az ilyen kérdésekről szóló információkat használja, hogy jobban megértsék, mikor kell az AI áttekintéseknek megjelenniük, és nem szabad megjelenniük.

Nem mindig kap egy összetett meghatározást, ha egy hamis mondat jelentését kéri. Az e szakasz címsorának elkészítésekor a “Like ragasztó a pizza jelentése” keresése, és ez nem váltott ki AI áttekintést.

A probléma nem tűnik univerzálisnak az LLMS -en. Megkérdeztem a Chatgpt -t, hogy “nem tudsz kétszer nyalni egy borzot”, és azt mondta nekem, hogy “nem egy standard idióma, de határozottan úgy hangzik, mint egyfajta mókás, rusztikus közmondás, amelyet valaki használhat.” Ugyanakkor mindenképpen megpróbálta felajánlani egy meghatározást, lényegében: “Ha valami gondatlanul csinálsz, vagy egyszer provokálsz veszélyt, akkor valószínűleg nem túléli meg, hogy újra megcsinálja.”

Bővebben: AI Essentials: 27 módja annak, hogy az AI generáljon az Ön számára, szakértőink szerint

A jelentés kihúzása a semmiből

Ez a jelenség egy szórakoztató példa az LLMS hajlandóságára, hogy felkészüljön – amit az AI világnak “hallucinizálónak” hívnak. Amikor egy gener AI modell hallucinál, olyan információkat hoz létre, amelyek úgy hangzik, mintha valószínűsíthető vagy pontos lehet, de a valóságban nem gyökerezik.

Az LLM -ek “nem ténygenerátorok” – mondta Li – csak az edzésük alapján megjósolják a következő logikus nyelvi biteket.

Az AI kutatóinak többsége egy nemrégiben végzett felmérésben azt jelentette, hogy kételkednek az AI pontosságában és a megbízhatósági kérdésekben hamarosan megoldódnak.

A hamis definíciók nemcsak a pontatlanságot, hanem az LLM -ek magabiztos pontatlanságát is mutatják. Amikor azt kérdezi egy embernek, hogy olyan kifejezést jelent, mint például: “Nem kaphatsz pulykát egy Cybertruck -tól”, valószínűleg azt várja el, hogy azt mondják, hogy nem hallottak róla, és ennek nincs értelme. Az LLM -ek gyakran ugyanolyan bizalommal reagálnak, mintha egy valódi kifejezés meghatározását kérnéd.

Ebben az esetben a Google azt mondja, hogy a kifejezés azt jelenti, hogy a Tesla Cybertruck “nem tervezett vagy nem képes a Hálaadás pulykák vagy más hasonló tárgyak szállítására”, és kiemeli “annak megkülönböztető, futurisztikus kialakítását, amely nem segíti elő a terjedelmes termékek szállítását”. Éget.

Ennek a humoros tendenciának van egy baljós leckéje: ne bízzon mindent, amit a chatbotból lát. Lehet, hogy a cuccokat a vékony levegőből készíti el, és nem feltétlenül jelzi, hogy bizonytalan.

“Ez egy tökéletes pillanat az oktatóknak és a kutatóknak, hogy ezeket a forgatókönyveket felhasználják az emberek megtanítására, hogyan generálják a jelentést, hogyan működik az AI, és miért számít” – mondta Li. “A felhasználóknak mindig szkeptikusnak kell maradniuk, és ellenőrizniük kell a követeléseket.”

Legyen óvatos, amit keres

Mivel nem bízhat abban, hogy egy LLM szkeptikus az ön nevében, ösztönöznie kell azt, hogy vegyen be, amit mondasz egy sóval.

“Amikor a felhasználók egy promptot adnak be, a modell csak azt feltételezi, hogy érvényes, majd a legvalószínűbb pontos választ generálja” – mondta Li.

A megoldás az, hogy bevezetje a szkepticizmust a promptban. Ne kérje egy ismeretlen mondat vagy idióma jelentését. Kérdezd meg, hogy ez valódi -e. Li azt javasolta, hogy kérdezze meg: “Ez egy igazi idióma?”

“Ez segíthet a modellnek a kifejezés felismerésében, ahelyett, hogy csak kitalálnánk” – mondta.

Back to top button