Home Tudomány és technika Az Openai és az antropikus biztonsági értékeléseket végeztek egymás AI rendszereinek

Az Openai és az antropikus biztonsági értékeléseket végeztek egymás AI rendszereinek

8
0

Az AI -társaságok legtöbbször a csúcsra zárva vannak, és riválisként és versenytársakként kezelik egymást. Ma az Openai és az Antropic kiderült, hogy megállapodtak abban, hogy értékelik egymás nyilvánosan elérhető rendszereinek igazítását, és megosztották elemzéseik eredményeit. A teljes jelentések nagyon technikai jellegűek, de érdemes elolvasni mindenkinek, aki követi az AI fejlődésének anyáit és csavarjait. A széles összefoglaló néhány hibát mutatott az egyes vállalatok kínálatával, valamint a jövőbeli biztonsági tesztek javítására vonatkozó mutatókat.

Az antropikus ezt mondta kiértékelt Openai modellek „Sycophancy, bejelentés, önmegőrzés és az emberi visszaélés támogatása, valamint az AI biztonsági értékelések és a felügyelet aláásásához kapcsolódó képességek.” Felülvizsgálata szerint az OpenAI O3 és O4-MINI modelljei összhangban álltak a saját modelljei eredményeivel, de aggodalmát fejezték ki a GPT-4O és a GPT-4.1 általános célú modellekkel való esetleges visszaélés miatt. A társaság azt is mondta, hogy a sycophancy bizonyos mértékben kérdés az összes tesztelt modellnél, az O3 kivételével.

Az antropikus tesztek nem tartalmazzák az Openai legújabb kiadását. GPT-5 Van egy olyan funkció, amelyet Safe Physions néven hívnak, amelynek célja a felhasználók és a nyilvánosság védelme a potenciálisan veszélyes lekérdezések ellen. Az Openai nemrégiben szembesült azzal Az első jogellenes halálos peres eljárás Egy tragikus eset után, amikor egy tinédzser hónapokig megvitatta az öngyilkossági kísérleteket és terveit a Chatgpt -rel, mielőtt saját életét elvitte.

A flip oldalán az Openai Az antropikus modelleken végzett tesztek futtatása Az oktatás hierarchiájához, a börtönböréshez, a hallucinációkhoz és a scheminghez. A Claude modellek általában jól teljesítettek az oktatási hierarchia -tesztekben, és magas megtagadási arányuk volt a hallucinációs tesztekben, ami azt jelenti, hogy kevésbé valószínű, hogy válaszokat kínálnak azokban az esetekben, amikor a bizonytalanság azt jelentette, hogy a válaszuk téves lehet.

Érdekes az, hogy ezeknek a vállalatoknak a közös értékelés elvégzésére irányulnak, főleg mivel az Openai állítólag megsértette az antropikus szolgáltatási feltételeket azáltal, hogy a programozók Claude -t használják az új GPT modellek felépítésében, ami az antropikushoz vezetett akadály Az Openai a hónap elején hozzáférhet eszközeihez. De a biztonság az AI eszközökkel nagyobb kérdéssé vált, mivel a kritikusok és a jogi szakértők iránymutatásokat keresnek a felhasználók védelme érdekében, különösen kiskorúak

Fuente de noticias