Emlékszel, amikor a „hamis” az interneten rosszul Photoshopolt képet jelentett? Ó, egyszerűbb idők. Most mindannyian a tengerben úszunk AI által generált videók és mélyhamisítások, a hamis celebvideóktól a hamis katasztrófaközvetítésekés szinte lehetetlen megtudni, mi a valóság.
És mindjárt rosszabb lesz. Sora, az OpenAI mesterséges intelligencia-videóeszköze máris sárosítja a vizet. De most az új, vírusos „közösségi médiaalkalmazása”, a Sora 2 a legmenőbb jegy az interneten. Íme a kicker: ez egy csak meghívásos, TikTok-stílusú hírfolyam, ahol minden 100%-ban hamis.
A szerző már így neveztemély hamis lázálom„, és pontosan erről van szó. Ez egy olyan platform, amely napról napra egyre jobb, hogy a fikciót ténynek tűnjön, és a kockázatok óriásiak. Ha a valódi és a mesterséges intelligencia elválasztásával küzd, nem vagy egyedül.
Íme néhány hasznos tipp, amelyek segíthetnek átvészelni a zajt, hogy megértsék az AI által ihletett helyzetek igazságát.
Ne hagyja ki elfogulatlan műszaki tartalmainkat és laboratóriumi értékeléseinket sem. Adja hozzá a CNET-t preferált Google-forrásként.
Technikai szempontból a Sora videók lenyűgözőek a versenytársakhoz képest, mint pl Midjourney V1 és A Google 3-at látok. Nagy felbontással, szinkronizált hanggal és meglepő kreativitással rendelkeznek. A Sora legnépszerűbb funkciója, a „cameo” lehetővé teszi, hogy mások képmásait felhasználva beillessze őket szinte bármilyen mesterséges intelligencia által generált jelenetbe. Lenyűgöző eszköz, ami félelmetesen valósághű videókat eredményez.
Ezért aggódik sok szakértő Sora miatt. Az alkalmazás megkönnyíti bárki számára, hogy veszélyes mélyhamisítványokat készítsen, félretájékoztatást terjesszen, és elmossa a határvonalat a valódi és a nem valódi között. A közéleti személyiségek és hírességek különösen ki vannak téve ezeknek a mélyhamisításoknak és a szakszervezeteknek A SAG-AFTRA arra ösztönözte az OpenAI-t, hogy megerősítse védőkorlátait.
Az AI-tartalom azonosítása folyamatos kihívást jelent a technológiai vállalatok, a közösségi média platformok és mindenki más számára. De nem teljesen reménytelen. Íme néhány dolog, amire figyelni kell annak megállapításához, hogy a videó Sora segítségével készült-e.
Keresse meg a Sora vízjelet
A Sora iOS alkalmazással készült minden videó vízjelet tartalmaz a letöltéskor. Ez a fehér Sora logó – egy felhő ikon –, amely a videó szélein ugrál. Hasonló a TikTok-videók vízjelezéséhez.
A vízjelekkel ellátott tartalom az egyik legnagyobb módja annak, hogy az AI-cégek vizuálisan segítsenek bennünket a mesterséges intelligencia által generált tartalom észlelésében. A Google Gemini „nano banán” modellpéldául automatikusan vízjelekkel látja el a képeit. A vízjelek nagyszerűek, mert egyértelműen jelzik, hogy a tartalom mesterséges intelligencia segítségével készült.
De a vízjelek nem tökéletesek. Egyrészt, ha a vízjel statikus (nem mozog), könnyen kivágható. Még az olyan vízjelek mozgatásához is, mint a Soraé, vannak kifejezetten ezek eltávolítására tervezett alkalmazások, így a vízjelekben önmagában nem lehet teljesen megbízni. Amikor az OpenAI vezérigazgatóját, Sam Altmant megkérdezték erről, ő mondta a társadalomnak alkalmazkodnia kell ahhoz a világhoz, ahol bárki bárkiről készíthet hamis videókat. Természetesen az OpenAI Sora előtt nem volt népszerű, könnyen hozzáférhető, készségeket nem igénylő módszer ezeknek a videóknak a készítésére. Érvelése azonban érvényes érvelést vet fel azzal kapcsolatban, hogy a hitelesség ellenőrzéséhez más módszerekre kell támaszkodni.
Ellenőrizze a metaadatokat
Tudom, valószínűleg arra gondol, hogy nincs mód a videó metaadatainak ellenőrzésére annak megállapítására, hogy valódiak-e. Megértem, honnan jössz; ez egy plusz lépés, és előfordulhat, hogy nem tudja, hol kezdje. De nagyszerű módja annak megállapítására, hogy egy videó Sorával készült-e, és egyszerűbb megtenni, mint gondolná.
A metaadatok olyan információk gyűjteménye, amelyeket automatikusan csatolnak egy tartalomhoz annak létrehozásakor. Jobb betekintést nyújt egy kép vagy videó létrehozásának módjába. Tartalmazhatja a fénykép készítéséhez használt kamera típusát, a videó rögzítésének helyét, dátumát és időpontját, valamint a fájl nevét. Minden fotó és videó metaadatokkal rendelkezik, függetlenül attól, hogy ember vagy mesterséges intelligencia készítette. És sok mesterséges intelligencia által létrehozott tartalom olyan hitelesítő adatokkal rendelkezik, amelyek az AI eredetét is jelzik.
Az OpenAI a Coalition for Content Provenance and Authenticity tagja, ami számodra azt jelenti, hogy Sora videók tartalmazza C2PA metaadatok. Használhatja a A Content Authenticity Initiative ellenőrző eszköze videó, kép vagy dokumentum metaadatainak ellenőrzéséhez. Íme, hogyan. (A Content Authenticity Initiative a C2PA része.)
Fotók, videók vagy dokumentumok metaadatainak ellenőrzése:
1. Navigáljon erre az URL-re: https://verify.contentauthenticity.org/
2. Töltse fel az ellenőrizni kívánt fájlt.
3. Kattintson a Megnyitás gombra.
4. Ellenőrizze a jobb oldali panelen található információkat. Ha mesterséges intelligencia által generált, akkor ennek szerepelnie kell a tartalom összefoglaló szakaszában.
Amikor egy Sora-videót futtatsz ezen az eszközön keresztül, akkor azt fogja mondani, hogy a videót „az OpenAI bocsátotta ki”, és szerepelni fog benne, hogy mesterséges intelligencia által generált. Minden Sora-videónak tartalmaznia kell ezeket a hitelesítő adatokat, amelyek lehetővé teszik annak megerősítését, hogy a Sorával készült-e.
Ez az eszköz, mint minden AI-detektor, nem tökéletes. Az AI-videók számos módon elkerülhetik az észlelést. Ha más, nem Sora-videói vannak, előfordulhat, hogy azok nem tartalmazzák a szükséges jeleket a metaadatokban ahhoz, hogy az eszköz megállapítsa, mesterséges intelligencia készítette-e vagy sem. A Midjourney-vel készült AI-videókat például nem jelölik meg, amint azt a tesztelésem során megerősítettem. Még akkor is, ha a videót Sora készítette, de aztán egy harmadik féltől származó alkalmazáson keresztül futott (például egy vízjel-eltávolító alkalmazáson), és újra letöltötte, ez kevésbé valószínű, hogy az eszköz mesterséges intelligenciaként jelöli meg.
A Content Authenticity Initiative ellenőrző eszköze helyesen jelezte, hogy a Sorával készített videóm mesterséges intelligenciával készült, valamint a létrehozás dátumát és időpontját.
Képernyőkép: Katelyn Chedraoui/CNET Keressen más AI címkéket, és adja meg a sajátját
Ha a Meta valamelyik közösségi médiaplatformján tartózkodik, például az Instagramon vagy a Facebookon, akkor kaphat egy kis segítséget annak meghatározásához, hogy valami mesterséges intelligencia-e. Metának van belső rendszerek működnek hogy segítsen megjelölni az AI-tartalmat és címkézni. Ezek a rendszerek nem tökéletesek, de jól látható a megjelölt bejegyzések címkéje. TikTok és YouTube hasonló irányelvekkel rendelkeznek az AI-tartalom címkézésére.
Az egyetlen igazán megbízható módja annak, hogy megtudjuk, hogy valami mesterséges intelligencia által generált-e, ha az alkotó nyilvánosságra hozza. Számos közösségi média platform már kínál olyan beállításokat, amelyek segítségével a felhasználók mesterséges intelligencia által generáltként jelölhetik meg bejegyzéseiket. Még a képaláírásban szereplő egyszerű elismerés vagy nyilatkozat is sokat segíthet abban, hogy mindenki megértse, hogyan jött létre valami.
Miközben Sorát görgeted, tudod, hogy semmi sem valódi. Ha azonban elhagyja az alkalmazást, és mesterséges intelligencia által generált videókat oszt meg, kollektív felelősségünk, hogy nyilvánosságra hozzuk a videó létrehozásának módját. Mivel az olyan mesterséges intelligencia modellek, mint a Sora, továbbra is elmossák a határvonalat a valóság és a mesterséges intelligencia között, mindannyiunkon múlik, hogy a lehető legvilágosabban tegyük egyértelművé, hogy valami valódi vagy mesterséges intelligencia.
A legfontosabb, hogy légy éber
Nincs egyetlen bolondbiztos módszer, amellyel egyetlen pillantással pontosan meg lehetne állapítani, hogy egy videó valódi-e vagy mesterséges intelligencia. A legjobb, amit megtehetsz a megtévesztés elkerülése érdekében, ha nem hiszel el automatikusan, megkérdőjelezhetetlenül mindent, amit az interneten lát. Kövesd megérzéseidet – ha valami valószerűtlennek tűnik, akkor valószínűleg az. Ezekben a példátlan, mesterséges intelligenciával teli időkben a legjobb védekezés az, ha alaposabban megvizsgálja az éppen nézett videókat. Ne csak gyorsan pillantson és gondolkodás nélkül görgessen el. Ellenőrizze, hogy nincsenek-e elrontott szövegek, eltűnő tárgyak és a fizikát meghazudtoló mozgások. És ne verje magát, ha időnként becsapják; még a szakértők is félreértik.
(Közzététel: A Ziff Davis, a CNET anyavállalata áprilisban pert indított az OpenAI ellen, azt állítva, hogy megsértette a Ziff Davis szerzői jogait az AI-rendszerek képzése és üzemeltetése során.)









