Home Hír Real kontra mesterséges intelligencia: A Deepfake Spotter útmutatója mesterséges intelligencia által generált...

Real kontra mesterséges intelligencia: A Deepfake Spotter útmutatója mesterséges intelligencia által generált videókhoz

1
0

Elmúltak azok az idők, amikor egy „hamisítványt” az interneten könnyű volt észrevenni, gyakran csak egy rosszul Photoshopolt képet. Most a tengerben úszunk AI által generált videók és mélyhamisítások, a hamis hírességek ajánlásaitól a hamis katasztrófaközvetítések. A legújabb technológia kényelmetlenül okossá vált a valóság és a fikció közötti határvonalak elmosására, így szinte lehetetlen felismerni, mi a valóság.

És a helyzet gyorsan eszkalálódik. Az OpenAI Sora már most is sározza a vizet, de most vírusos „közösségi médiaalkalmazása” Sora 2az internet legforróbb – és legmegtévesztőbb – jegye. Ez egy TikTok-stílusú hírfolyam, ahol minden 100%-ban hamis. Ez a szerző a „mély hamis lázálom” és jó okkal. A platform folyamatosan fejlődik, hogy a fikció valósághűnek tűnjön, jelentős valós kockázatokkal.

Ha azért küzdesz, hogy elválaszd a valódit a mesterséges intelligenciától, nem vagy egyedül. Íme néhány hasznos tipp, amelyek segítenek átvészelni a zajt, hogy megértsd az AI által ihletett alkotások igazságát.

Ne hagyja ki elfogulatlan műszaki tartalmainkat és laboratóriumi értékeléseinket sem. Adja hozzá a CNET-t preferált Google-forrásként.

AI-szakértőm a Sora-videókról

Technikai szempontból a Sora videók lenyűgözőek a versenytársakhoz képest, mint pl Midjourney V1 és Google látom 3. Nagy felbontással, szinkronizált hanggal és meglepő kreativitással rendelkeznek. A Sora legnépszerűbb funkciója, a „cameo” lehetővé teszi, hogy mások képmásait felhasználva beillessze őket szinte bármilyen mesterséges intelligencia által generált jelenetbe. Lenyűgöző eszköz, ami félelmetesen valósághű videókat eredményez.

Ezért aggódik sok szakértő Sora miatt. Az alkalmazás megkönnyíti bárki számára, hogy veszélyes mélyhamisítványokat készítsen, félretájékoztatást terjesszen, és elmossa a határvonalat a valódi és a nem valódi között. A közéleti személyiségek és a hírességek különösen ki vannak téve ezeknek a mélyhamisításoknak, és az olyan szakszervezetek, mint a SAG-AFTRA, arra ösztönözték az OpenAI-t, hogy erősítse meg a védőkorlátokat.

Az AI-tartalom azonosítása folyamatos kihívást jelent a technológiai vállalatok, a közösségi média platformok és mindenki más számára. De nem teljesen reménytelen. Íme néhány dolog, amire figyelni kell annak megállapításához, hogy a videó Sora segítségével készült-e.

Keresse meg a Sora vízjelet

A Sora iOS alkalmazással készült minden videó vízjelet tartalmaz a letöltéskor. Ez a fehér Sora logó – egy felhő ikon –, amely a videó szélein ugrál. Hasonló a TikTok-videók vízjelezéséhez. A vízjelekkel ellátott tartalom az egyik legnagyobb módja annak, hogy az AI-cégek vizuálisan segítsenek bennünket a mesterséges intelligencia által generált tartalom észlelésében. A Google Gemini „nano banán” modell automatikusan vízjellel látja el a képeket. A vízjelek nagyszerűek, mert egyértelműen jelzik, hogy a tartalom mesterséges intelligencia segítségével készült.

De a vízjelek nem tökéletesek. Egyrészt, ha a vízjel statikus (nem mozog), könnyen kivágható. Még az olyan mozgó vízjelekhez is, mint a Sora, vannak kifejezetten ezek eltávolítására tervezett alkalmazások, így a vízjelekben önmagában nem lehet teljesen megbízni. Amikor az OpenAI vezérigazgatója, Sam Altman erről kérdeztékszerinte a társadalomnak alkalmazkodnia kell ahhoz a világhoz, ahol bárki bárkiről készíthet hamis videókat. Természetesen a Sora előtt nem volt népszerű, könnyen elérhető, készségeket nem igénylő módszer ezeknek a videóknak a készítésére. Érvelése azonban érvényes érvelést vet fel azzal kapcsolatban, hogy a hitelesség ellenőrzéséhez más módszerekre kell támaszkodni.

Ellenőrizze a metaadatokat

Tudom, hogy valószínűleg arra gondol, hogy nincs mód a videó metaadatainak ellenőrzésére annak megállapítására, hogy valódiak-e. Értem, honnan jössz. Ez egy plusz lépés, és előfordulhat, hogy nem tudja, hol kezdje. De nagyszerű módja annak megállapítására, hogy egy videó Sorával készült-e, és egyszerűbb megtenni, mint gondolná.

A metaadatok olyan információk gyűjteménye, amelyeket automatikusan csatolnak egy tartalomhoz annak létrehozásakor. Jobb betekintést nyújt egy kép vagy videó létrehozásának módjába. Tartalmazhatja a fénykép készítéséhez használt kamera típusát, a videó rögzítésének helyét, dátumát és időpontját, valamint a fájl nevét. Minden fotó és videó metaadatokkal rendelkezik, függetlenül attól, hogy ember vagy mesterséges intelligencia készítette. És sok mesterséges intelligencia által létrehozott tartalom olyan hitelesítő adatokkal rendelkezik, amelyek az AI eredetét is jelzik.

Az OpenAI a Coalition for Content Provenance and Authenticity tagja, ami Sora-t jelent videók tartalmazzák C2PA metaadatok. Használhatja a ellenőrző eszköz a Content Authenticity Initiative programból, hogy ellenőrizze egy videó, kép vagy dokumentum metaadatait. Íme, hogyan. (A Content Authenticity Initiative a C2PA része.)

Fotók, videók vagy dokumentumok metaadatainak ellenőrzése

1. Navigáljon erre az URL-re: https://verify.contentauthenticity.org/
2. Töltse fel az ellenőrizni kívánt fájlt.
3. Kattintson a Megnyitás gombra.
4. Ellenőrizze a jobb oldali panelen található információkat. Ha mesterséges intelligencia által generált, akkor ennek szerepelnie kell a tartalom összefoglaló szakaszában.

Amikor egy Sora-videót futtatsz ezen az eszközön keresztül, akkor azt fogja mondani, hogy a videót „az OpenAI bocsátotta ki”, és szerepelni fog benne, hogy mesterséges intelligencia által generált. Minden Sora-videónak tartalmaznia kell ezeket a hitelesítő adatokat, amelyek lehetővé teszik annak megerősítését, hogy a Sorával készült-e.

Ez az eszköz, mint minden AI-detektor, nem tökéletes. Az AI-videók számos módon elkerülhetik az észlelést. Ha nem Sora-videói vannak, előfordulhat, hogy azok nem tartalmazzák a szükséges jeleket a metaadatokban ahhoz, hogy az eszköz megállapítsa, mesterséges intelligencia készítette-e vagy sem. A Midjourney-vel készített AI-videókat például nem jelölik meg, amint azt a tesztelésem során megerősítettem. Még akkor is, ha a videót Sora készítette, de aztán egy harmadik féltől származó alkalmazáson keresztül futott (például egy vízjel-eltávolító alkalmazáson), és újra letöltötte, ez kevésbé valószínű, hogy az eszköz mesterséges intelligenciaként jelöli meg.

A Content Authenticity Initiative ellenőrző eszköze helyesen jelezte, hogy a Sorával készített videóm mesterséges intelligenciával készült, valamint a létrehozás dátumát és időpontját.

Képernyőkép: Katelyn Chedraoui/CNET Keressen más AI címkéket, és adja meg a sajátját

Ha a Meta valamelyik közösségi médiaplatformján tartózkodik, például az Instagramon vagy a Facebookon, akkor kaphat egy kis segítséget annak meghatározásához, hogy valami mesterséges intelligencia-e. Metának van belső rendszerek helyén, hogy segítsen megjelölni az AI-tartalmat, és ekként címkézni. Ezek a rendszerek nem tökéletesek, de jól látható a megjelölt bejegyzések címkéje. TikTok és YouTube hasonló irányelvekkel rendelkeznek az AI-tartalom címkézésére.

Az egyetlen igazán megbízható módja annak, hogy megtudjuk, hogy valami mesterséges intelligencia által generált-e, ha az alkotó nyilvánosságra hozza. Számos közösségi média platform már kínál olyan beállításokat, amelyek segítségével a felhasználók mesterséges intelligencia által generáltként jelölhetik meg bejegyzéseiket. Még a képaláírásban szereplő egyszerű elismerés vagy nyilatkozat is sokat segíthet abban, hogy mindenki megértse, hogyan jött létre valami.

Tudod, miközben görgeted Sorát, hogy semmi sem valódi. Ha azonban elhagyja az alkalmazást, és megosztja a mesterséges intelligencia által generált videókat, kollektív felelősségünkké válik, hogy nyilvánosságra hozzuk a videó létrehozásának módját. Mivel az olyan mesterséges intelligencia modellek, mint a Sora, továbbra is elmossák a határvonalat a valóság és a mesterséges intelligencia között, mindannyiunkon múlik, hogy a lehető legvilágosabban tegyük egyértelművé, hogy valami valódi vagy mesterséges intelligencia.

A legfontosabb, hogy légy éber

Nincs egyetlen bolondbiztos módszer arra, hogy egyetlen pillantással pontosan meg tudja állapítani, hogy egy videó valódi-e vagy mesterséges intelligencia. A legjobb, amit megtehetsz a megtévesztés elkerülése érdekében, ha nem hiszel el automatikusan, vitathatatlanul mindent, amit az interneten lát. Kövesd a megérzéseidet, és ha valami valószerűtlennek tűnik, akkor valószínűleg az. Ezekben a példátlan, mesterséges intelligenciával teli időkben a legjobb védekezés az, ha alaposabban megvizsgálja az éppen nézett videókat. Ne csak gyorsan pillantson és gondolkodás nélkül görgessen el. Ellenőrizze, hogy nincsenek-e elrontott szövegek, eltűnő tárgyak és a fizikát meghazudtoló mozgások. És ne verje magát, ha időnként becsapják. Még a szakértők is félreértik.

(Közzététel: A Ziff Davis, a CNET anyavállalata áprilisban pert indított az OpenAI ellen, azt állítva, hogy megsértette a Ziff Davis szerzői jogait a képzés és az AI-rendszerek üzemeltetése során.)

Fuente de noticias