Az Openai nagyobb átláthatóságot ígér a modell hallucinációkban és a káros tartalomban

Az Openai elindított egy új weboldalt, melynek címe a Safety Expluations Hub, hogy nyilvánosan megosszák a modellek hallucinációs arányával kapcsolatos információkat. A hub azt is kiemeli, hogy egy modell káros tartalmat termel -e, az utasítások szerint, és a börtönbörcsök kísérlete.
A technológiai vállalat azt állítja, hogy ez az új oldal további átláthatóságot biztosít az OpenAI -n, egy olyan társaságon, amely kontextusban több peres eljárásban állt szemben, azzal állítva, hogy illegálisan használt szerzői joggal védett anyagot alkalmaznak az AI modellek kiképzésére. Ó, igen, és érdemes megemlíteni, hogy a New York Times azt állítja, hogy a tech társaság véletlenül törölte a bizonyítékokat az újság plágiumi ügyében.
A biztonsági értékelési csomópont célja az Openai rendszerkártyáinak kibővítése. Csak a fejlesztés biztonsági intézkedéseit vázolják fel a bevezetéskor, míg a Hubnak folyamatban lévő frissítéseket kell biztosítania.
“Ahogy az AI értékelése fejlődik, arra törekszünk, hogy megosszuk az előrehaladásunkat a modell képességének és biztonságának mérésére szolgáló méretezhetőbb módszerek fejlesztésében” – állítja az Openai bejelentése. “A biztonsági értékelési eredmények egy részének megosztásával reméljük, hogy ez nemcsak megkönnyíti az OpenAI rendszerek biztonsági teljesítményének megértését az idő múlásával, hanem támogatja a közösségi erőfeszítéseket is, hogy növeljék az átláthatóságot a terepen.” Az Openai hozzáteszi, hogy azon dolgozik, hogy proaktívabb kommunikációt folytasson ezen a területen a vállalat egész területén.
Bemutatjuk a biztonsági értékelési csomópontot – egy erőforrás a modellek biztonsági eredményeinek feltárására.
Míg a rendszerkártyák megosztják a biztonsági mutatókat az indításkor, a hub rendszeresen frissül, mint erőfeszítéseink részeként, hogy proaktív módon kommunikáljunk a biztonságról.https: //t.co/c8ngmxlc2y
– Openai (@openai) 2025. május 14 -én
Az érdekelt felek megnézhetik a Hub minden szakaszát, és információkat láthatnak a releváns modellekről, például a GPT-4.1-4.5. Az Openai megjegyzi, hogy az ebben a központban található információk csak “pillanatkép”, és hogy az érdekelt feleknek meg kell vizsgálniuk a rendszerkártyáit. Értékelések és egyéb kiadások további részletekért.
A teljes biztonsági értékelési csomópont egyik nagy buta az, hogy az Openai az entitás, amelyet ezeket a teszteket végzi, és kiválasztja, hogy milyen információkat oszt meg nyilvánosan. Ennek eredményeként nincs mód arra, hogy garantáljuk, hogy a társaság megosztja az összes kérdését vagy aggodalmát a nyilvánossággal.