Antropikus ügynöki AI, Claudeegy új szerint „fegyveres” volt a magas szintű kibertámadásokban jelentés közzétette a cég. Azt állítja, hogy sikeresen megszakította egy számítógépes bűncselekményt, amelynek „Vibe Hacking” zsarolási rendszere legalább 17 szervezetet célozott meg, ideértve az egészségügyi, sürgősségi szolgálatokkal és a kormánygal kapcsolatos néhányat.
Az Antropic szerint a hacker megpróbálta néhány áldozatot kiszorítani a hat számjegyű váltságdíjak fizetésére, hogy megakadályozzák személyes adataik nyilvánosságát, és „példátlan” támaszkodtak az AI-támogatásra. A jelentés azt állítja, hogy a Claude Code, az Antropic Agentic Coding Tool -ja „a felderítés automatizálására, az áldozatok hitelesítő adatainak betakarítására és a hálózatok behatolására” használták. Az AI -t arra is felhasználták, hogy stratégiai döntéseket hozzanak, tanácsot adjanak arról, hogy mely adatok megcélozzák, sőt „vizuálisan riasztó” váltságdíjat hozzanak létre.
Az Antropic szerint az Antropic szerint az Antropic azt állítja, hogy a bűncselekmény felfedezése után betiltotta a kérdéses számlákat, és azóta kifejlesztett egy automatizált szűrőeszközt. Ezenkívül egy gyorsabb és hatékonyabb észlelési módszert vezetett be hasonló jövőbeli esetekhez, de nem határozza meg, hogyan működik.
A jelentés (amelyet teljes egészében elolvashat itt) részletesebben részletezi Claude részvételét az észak-koreai csalárd foglalkoztatási rendszerben és az AI által generált ransomware fejlesztésében. A három eset általános témája az antropikus szerint az, hogy az AI erősen reakcióképes és öntanuló jellege azt jelenti, hogy a számítógépes bűnözők most operatív okokból, valamint csak tanácsokból használják. Az AI olyan szerepet is teljesíthet, amely egyszerre szükség lenne egy magánszemélyre, és a műszaki készség már nem volt az a akadály, amely valaha volt.
Claude nem az egyetlen AI, amelyet rosszindulatú eszközökhöz használtak. Tavaly, Openai azt mondta, hogy a generatív AI -eszközöket olyan számítógépes csoportok használták, amelyek Kínával és Észak -Koreával kötődnek, a hackerek a GAI -t használják a kód hibakereséséhez, a lehetséges célok kutatásához és az adathalász e -mailek megfogalmazásához. Az Openai, akinek az architektúrája a Microsoft a saját Copilot AI táplálására használja, azt mondta, hogy blokkolta a csoportok rendszeréhez való hozzáférését.