5 módja annak, hogy okos maradjon az AI generáció használatakor, amelyet a számítástechnikai professzorok magyaráznak

Van egy régi mondás az újságírói üzletben: ha anyád azt mondja neked, hogy szeret téged, nézd meg. A lényeg az, hogy még a legmegbízhatóbb forrásaival is szkeptikusnak kell lennie. De mi van, ha anyád helyett egy generatív AI modell, mint például az Openai Chatgpt, mond valamit? Bíznia kellene a számítógépben?
Az elvihető egy pár Carnegie Mellon Egyetemi Számítástechnikus által a délnyugati délnyugati beszédről szóló beszédből? Nem. Nézze meg.
Ezen a héten a texasi Austin konferencia kiemelte a mesterséges intelligenciát. A szakértők megvitatták a jövőt és a nagy képet, a bizalomról, a változó munkahelyről és még sok másról. A CMU asszisztens professzorok, Sherry Wu és Maarten SAP inkább az itt és a mostanra összpontosítottak, néhány tippet arra, hogy miként lehet a legjobban használni, és nem pedig a leggyakoribb generatív AI -eszközöket, mint például az AI chatbotok, amelyek nagy nyelvű modellekre képzettek.
“Valójában messze nem tökéletesek, és valójában nem alkalmasak minden olyan használati esetre, amelyre az emberek használni akarják őket” – mondta SAP.
Itt van öt darab tanács arra vonatkozóan, hogyan lehet okosabb, mint az AI.
Legyen tisztában van arról, hogy mit akarsz
Bárki, akinek volt egy vicc, egy olyan közösségi média oldalon esik, mint a Twitter vagy a Bluesky, megmondja, milyen nehéz a szarkazmát a szövegben közvetíteni. És a helyszíneken található plakátok (legalábbis az emberi) ismerik a társadalmi útmutatásokat, amelyek azt jelzik, hogy mikor nem vagy szó. Egy LLM nem.
A mai LLM-ek szó szerint az idő több mint felét nem írják be, mondta SAP, és küzdenek a társadalmi érveléssel.
Wu szerint a megoldás az, hogy konkrétabb és felépítse az Ön utasításait. Győződjön meg arról, hogy a modell tudja, mit kér, hogy előállítsa. Összpontosítson arra, amit pontosan szeretne, és ne gondolja, hogy az LLM extrapolálja a tényleges kérdését.
A robotok magabiztosak, de nem pontosak
A generatív AI eszközökkel talán a legnagyobb probléma az, hogy hallucinálnak, azaz a cuccokat készítik. Az SAP szerint a hallucinációk az idő legfeljebb egynegyedéig történhetnek, magasabb arányokkal, mint például a törvény és az orvostudomány.
A probléma túlmutat, hogy csak a dolgok hibásak. Az SAP szerint a chatbotok magabiztosnak tűnhetnek a válaszban, miközben teljesen tévednek.
“Ez az embereket kiszolgáltatottá teszi, hogy támaszkodjon a bizonyosság kifejezéseire, amikor a modell helytelen” – mondta.
Ennek megoldása egyszerű: ellenőrizze az LLM válaszait. Ellenőrizheti annak következetességét önmagával – mondta Wu, ugyanazt a kérdést, vagy ugyanazon kérdésben variációkat feltenni. Lehet, hogy különböző kimeneteket lát. “Néha látni fogja, hogy a modell nem igazán tudja, mit mond” – mondta.
A legfontosabb dolog az, hogy külső forrásokkal ellenőrizzük. Ez azt is jelenti, hogy vigyáznia kell arra, hogy olyan kérdéseket tegyen fel, amelyekre nem ismeri a választ. Wu azt mondta, hogy a generatív AI válaszai a leghasznosabbak, ha olyan témában vannak, amelyet ismersz, így megmondhatja, mi az igazi és mi nem.
“Tudatos döntéseket hozhat arról, hogy mikor kell támaszkodni egy modellre, és mikor nem” – mondta. “Ne bízzon egy modellben, amikor azt mondja, hogy nagyon magabiztos.”
AI nem tud titkot tartani
Az LLM -ekkel kapcsolatos adatvédelmi aggályok bőségesek. Ez túlmutat olyan információk megadásán, amelyeket nem szeretne látni az interneten egy olyan gépnek, amely bárki számára újból felújíthatja azt, aki szépen kéri. Az SAP szerint az Openai Chatgpt -jével végzett demonstráció azt mutatta, hogy amikor egy meglepő partit szerveznek, azt mondta a személynek, akit állítólag meglepődni kellett a pártról.
“Az LLMS nem jó az érvelésben, hogy ki tudnia kell, hogy mi és mikor és milyen információknak kell magánszemélynek lennie” – mondta.
Ne ossza meg érzékeny vagy személyes adatait egy LLM -mel – mondta Wu.
“Amikor megosztja az Ön által előállított dolgot a modellhez, mindig ellenőrizze újra, ha van valami abban, amit nem akarja engedni az LLM-nek”-mondta.
Ne feledje, hogy egy géppel beszélsz
A chatbotok részben elkaptak, mert mennyire utánozzák az emberi beszédet. De ez mind utánozza; Ez nem igazán ember – mondta SAP. A modellek olyan dolgokat mondanak, mint a “Kíváncsi” és az “I Tallom”, mert a nyelven képzettek, amelyek magukban foglalják ezeket a szavakat, nem pedig azért, mert képzeletük van. “A nyelv használatának módja, ezek a szavak mind a megismerést jelentik” – mondta SAP. “Ez azt jelenti, hogy a nyelvmodell elképzeli a dolgokat, hogy belső világgal rendelkezik.”
Ha az AI modellekre mint emberi gondolkodás veszélyes lehet, akkor a helytelen bizalomhoz vezethet. Az LLM -ek nem működnek ugyanúgy, mint az emberek, és úgy kezelik őket, mintha emberiek megerősíthetik a társadalmi sztereotípiákat – mondta SAP.
“Az emberek sokkal nagyobb valószínűséggel élnek túl az emberiség vagy az AI rendszerek tudatosságát”-mondta.
Az LLM használatának nincs értelme
Annak ellenére, hogy az LLM -ek képesek fejlett kutatásra és érvelésre, még nem működnek ilyen jól – mondta SAP. Az olyan referenciaértékek, amelyek azt sugallják, hogy egy modell képes fellépni egy Ph.D. ember szintjén. csak referenciaértékek, és az ezen elemzések mögött álló tesztek nem azt jelentik, hogy egy modell ezen a szinten működhet annak érdekében, hogy mit szeretne használni.
“Van ilyen illúzió az AI képességeinek robusztusságáról, amely arra készteti az embereket, hogy kiütéses döntéseket hozzanak vállalkozásukban” – mondta.
Amikor eldönti, hogy egy generatív AI -modellt kell -e használni egy feladathoz, fontolja meg, hogy milyen előnyökkel és potenciális károkkal jár, és milyen előnyökkel és potenciális károkkal jár, ha nem használják – mondta Wu.