Ha egy kicsit is online vagy, akkor valószínű, hogy látott már olyan képet vagy videót AI által generált. Tudom, hogy már korábban is becsaptak, mintha ezzel lettem volna vírusos videó nyuszikról a trambulinon. A Sora azonban teljesen új szintre emeli az AI-videókat, így minden eddiginél fontosabb az AI felismerése.
A Sora a ChatGPT testvéralkalmazása, amelyet ugyanaz az anyavállalat, az OpenAI készített. Nevét a 2024-ben piacra dobott mesterséges intelligencia-videó generátorról kapta. A közelmúltban azonban egy új Sora 2 modellel alaposan átdolgozták. vadonatúj közösségi média alkalmazás ugyanazon a néven. A TikTok-szerű alkalmazás vírusos lettaz AI-rajongókkal elhatározta levadászni a meghívókódokat. De ez nem olyan, mint bármely más közösségi média platform. Minden, amit Során látsz, hamis; minden videó mesterséges intelligencia által generált. A Sora használata egy AI mélyhamisított lázálom: első pillantásra ártalmatlan, a felszín alatt veszélyes kockázatok leselkednek.
Ne hagyja ki elfogulatlan műszaki tartalmainkat és laboratóriumi értékeléseinket sem. Adja hozzá a CNET-t preferált Google-forrásként.
Technikai szempontból a Sora videók lenyűgözőek a versenytársakhoz képest, mint pl Midjourney V1 és A Google 3-at látok. A Sora videók nagy felbontással, szinkronizált hanggal és meglepő kreativitással rendelkeznek. A Sora legnépszerűbb funkciója, a „cameo” lehetővé teszi, hogy mások képmásait felhasználva beillessze őket szinte bármilyen mesterséges intelligencia által generált jelenetbe. Lenyűgöző eszköz, ami félelmetesen valósághű videókat eredményez.
Ez az oka annak, hogy sok szakértő aggódik a Sora miatt, amely minden eddiginél egyszerűbbé teheti a mélyhamisítások létrehozását, a téves információk terjesztését, és elmoshatja a határt a valódi és a nem valós között. A közéleti személyiségek és a hírességek különösen ki vannak téve ezeknek a potenciálisan veszélyes mélyhamisításoknak, ezért a szakszervezetek, mint pl. A SAG-AFTRA megnyomta az OpenAI-t, hogy megerősítse a védőkorlátokat.
Az AI-tartalom azonosítása folyamatos kihívást jelent a technológiai vállalatok, a közösségi média platformok és mindannyiunk számára, akik ezeket használjuk. De nem teljesen reménytelen. Íme néhány dolog, amire figyelni kell annak megállapításához, hogy egy videó Sora segítségével készült-e.
Keresse meg a Sora vízjelet
A Sora iOS alkalmazással készült minden videó vízjelet tartalmaz a letöltéskor. Ez a fehér Sora logó – egy felhő ikon –, amely a videó szélein ugrál. Hasonló a TikTok-videók vízjelezéséhez.
A vízjelekkel ellátott tartalom az egyik legnagyobb módja annak, hogy az AI-cégek vizuálisan segítsenek bennünket a mesterséges intelligencia által generált tartalom észlelésében. A Google Gemini „nano banán” modellpéldául automatikusan vízjelekkel látja el a képeit. A vízjelek nagyszerűek, mert egyértelműen jelzik, hogy a tartalom mesterséges intelligencia segítségével készült.
De a vízjelek nem tökéletesek. Egyrészt, ha a vízjel statikus (nem mozog), könnyen kivágható. Még az olyan vízjelek mozgatásához is, mint a Soraé, vannak kifejezetten ezek eltávolítására tervezett alkalmazások, így a vízjelekben önmagában nem lehet teljesen megbízni. Amikor az OpenAI vezérigazgatóját, Sam Altmant megkérdezték erről, ő mondta a társadalomnak alkalmazkodnia kell ahhoz a világhoz, ahol bárki bárkiről készíthet hamis videókat. Természetesen az OpenAI Sora előtt nem volt népszerű, könnyen hozzáférhető, készségeket nem igénylő módszer ezeknek a videóknak a készítésére. Érvelése azonban érvényes érvelést vet fel azzal kapcsolatban, hogy a hitelesség ellenőrzéséhez más módszerekre kell támaszkodni.
Ellenőrizze a metaadatokat
Tudom, valószínűleg arra gondol, hogy nincs mód a videó metaadatainak ellenőrzésére annak megállapítására, hogy valódiak-e. Megértem, honnan jössz; ez egy plusz lépés, és előfordulhat, hogy nem tudja, hol kezdje. De nagyszerű módja annak megállapítására, hogy egy videó Sorával készült-e, és egyszerűbb megtenni, mint gondolná.
A metaadatok olyan információk gyűjteménye, amelyeket automatikusan csatolnak egy tartalomhoz annak létrehozásakor. Jobb betekintést nyújt egy kép vagy videó létrehozásának módjába. Tartalmazhatja a fénykép készítéséhez használt kamera típusát, a videó rögzítésének helyét, dátumát és időpontját, valamint a fájl nevét. Minden fotó és videó metaadatokkal rendelkezik, függetlenül attól, hogy ember vagy mesterséges intelligencia készítette. És sok mesterséges intelligencia által létrehozott tartalom olyan hitelesítő adatokkal rendelkezik, amelyek az AI eredetét is jelzik.
Az OpenAI a Coalition for Content Provenance and Authenticity tagja, ami számodra azt jelenti, hogy Sora videók tartalmazza C2PA metaadatok. Használhatja a A Content Authenticity Initiative ellenőrző eszköze videó, kép vagy dokumentum metaadatainak ellenőrzéséhez. Íme, hogyan. (A Content Authenticity Initiative a C2PA része.)
Fotók, videók vagy dokumentumok metaadatainak ellenőrzése:
1. Navigáljon erre az URL-re: https://verify.contentauthenticity.org/
2. Töltse fel az ellenőrizni kívánt fájlt.
3. Kattintson a Megnyitás gombra.
4. Ellenőrizze a jobb oldali panelen található információkat. Ha mesterséges intelligencia által generált, akkor ennek szerepelnie kell a tartalom összefoglaló szakaszában.
Amikor egy Sora-videót futtatsz ezen az eszközön keresztül, akkor azt fogja mondani, hogy a videót „az OpenAI bocsátotta ki”, és szerepelni fog benne, hogy mesterséges intelligencia által generált. Minden Sora-videónak tartalmaznia kell ezeket a hitelesítő adatokat, amelyek lehetővé teszik annak megerősítését, hogy a Sorával készült-e.
Ez az eszköz, mint minden AI-detektor, nem tökéletes. Az AI-videók számos módon elkerülhetik az észlelést. Ha más, nem Sora-videói vannak, előfordulhat, hogy azok nem tartalmazzák a szükséges jeleket a metaadatokban ahhoz, hogy az eszköz megállapítsa, mesterséges intelligencia készítette-e vagy sem. A Midjourney-vel készült AI-videókat például nem jelölik meg, amint azt a tesztelésem során megerősítettem. Még akkor is, ha a videót Sora készítette, de aztán egy harmadik féltől származó alkalmazáson keresztül futott (például egy vízjel-eltávolító alkalmazáson), és újra letöltötte, ez kevésbé valószínű, hogy az eszköz mesterséges intelligenciaként jelöli meg.
A Content Authenticity Initiative ellenőrző eszköze helyesen jelezte, hogy a Sorával készített videóm mesterséges intelligenciával készült, valamint a létrehozás dátumát és időpontját.
Képernyőkép: Katelyn Chedraoui/CNET Keressen más AI címkéket, és adja meg a sajátját
Ha a Meta valamelyik közösségi médiaplatformján tartózkodik, például az Instagramon vagy a Facebookon, akkor kaphat egy kis segítséget annak meghatározásához, hogy valami mesterséges intelligencia-e. Metának van belső rendszerek működnek hogy segítsen megjelölni az AI-tartalmat és címkézni. Ezek a rendszerek nem tökéletesek, de jól látható a megjelölt bejegyzések címkéje. TikTok és YouTube hasonló irányelvekkel rendelkeznek az AI-tartalom címkézésére.
Az egyetlen igazán megbízható módja annak, hogy megtudjuk, hogy valami mesterséges intelligencia által generált-e, ha az alkotó nyilvánosságra hozza. Számos közösségi média platform már kínál olyan beállításokat, amelyek segítségével a felhasználók mesterséges intelligencia által generáltként jelölhetik meg bejegyzéseiket. Még a képaláírásban szereplő egyszerű elismerés vagy nyilatkozat is sokat segíthet abban, hogy mindenki megértse, hogyan jött létre valami.
Miközben Sorát görgeted, tudod, hogy semmi sem valódi. Ha azonban elhagyja az alkalmazást, és mesterséges intelligencia által generált videókat oszt meg, kollektív felelősségünk, hogy nyilvánosságra hozzuk a videó létrehozásának módját. Mivel az olyan mesterséges intelligencia modellek, mint a Sora, továbbra is elmossák a határvonalat a valóság és a mesterséges intelligencia között, mindannyiunkon múlik, hogy a lehető legvilágosabban tegyük egyértelművé, hogy valami valódi vagy mesterséges intelligencia.
A legfontosabb, hogy légy éber
Nincs egyetlen bolondbiztos módszer, amellyel egyetlen pillantással pontosan meg lehetne állapítani, hogy egy videó valódi-e vagy mesterséges intelligencia. A legjobb, amit megtehetsz a megtévesztés elkerülése érdekében, ha nem hiszel el automatikusan, megkérdőjelezhetetlenül mindent, amit az interneten lát. Kövesd megérzéseidet – ha valami valószerűtlennek tűnik, akkor valószínűleg az. Ezekben a példátlan, mesterséges intelligenciával teli időkben a legjobb védekezés az, ha alaposabban megvizsgálja az éppen nézett videókat. Ne csak gyorsan pillantson és gondolkodás nélkül görgessen el. Ellenőrizze, hogy nincsenek-e elrontott szövegek, eltűnő tárgyak és a fizikát meghazudtoló mozgások. És ne verje magát, ha időnként becsapják; még a szakértők is félreértik.
(Közzététel: A Ziff Davis, a CNET anyavállalata áprilisban pert indított az OpenAI ellen, azt állítva, hogy megsértette a Ziff Davis szerzői jogait az AI-rendszerek képzése és üzemeltetése során.)