Openai, amely a biztonsággal kapcsolatos „nagyon veszélyes mentalitást” mutat, a szakértő figyelmezteti

Az AI szakértő azzal vádolta az Openai -t, hogy átírja a történelemét, és túlságosan elutasította a biztonsági aggályokat.
Miles Brundage volt Openai politikai kutatója kritizálta a társaság legutóbbi biztonsági és igazítási dokumentumát, amelyet ezen a héten tettek közzé. A dokumentum az Openai -t úgy írja le, hogy a mesterséges általános intelligencia (AGI) arra törekszik, hogy sok apró lépésben, ahelyett, hogy „egy óriási ugrást” készítsen, mondván, hogy az iteratív telepítés folyamata lehetővé teszi a biztonsági kérdések felkutatását és az AI visszaélésének lehetőségét az egyes szakaszokban.
Az AI technológia, például a CHATGPT sok kritikája közül a szakértők aggódnak amiatt, hogy a chatbotok pontatlan információkat nyújtanak az egészségről és a biztonságról (mint például a Google AI keresési funkciójának hírhedt kérdése, amely arra utasította az embereket, hogy sziklákat eszjenek), és hogy felhasználhatók politikai manipulációhoz, téves információkhoz és csalásokhoz. Különösen az Openai kritikát vonzott az átláthatóság hiánya miatt az AI modellek fejlesztésében, amelyek érzékeny személyes adatokat tartalmazhatnak.
Az OpenAI dokumentum ezen a héten történő kiadása válasznak tűnik ezekre az aggodalmakra, és a dokumentum azt sugallja, hogy az előző GPT-2 modell kidolgozása „megszakító” volt, és hogy eredetileg nem tették közzé a „rosszindulatú alkalmazásokkal kapcsolatos aggodalmak” miatt, de a vállalat most inkább az iteratív fejlesztés elve felé mozog. Brundage azonban azt állítja, hogy a dokumentum megváltoztatja a narratívát, és nem az AI fejlesztésének az Openai -ban való pontos ábrázolása.
„Az Openai GPT-2 kiadása, amelyben részt vettem, 100% -ban konzisztens volt + előrevetítették az Openai jelenlegi iteratív telepítés filozófiáját”-írta Brundage az X-en. „A modellt fokozatosan kiadták, az órák minden lépésben megosztottak. Az akkoriban sok biztonsági szakértő megköszönte nekünk ezt az óvatosságot. ”
Brundage azt is kritizálta, hogy a vállalat e dokumentum alapján a kockázatok látszólagos megközelítését írta, és azt írta: „Úgy érzi, mintha egy bizonyítási teher áll fenn ebben a szakaszban, ahol az aggodalmak riasztókkal rendelkeznek + A közvetlen veszélyek túlnyomó bizonyítékára van szükségük, hogy a rájuk járjon – egyébként csak folytassa a szállítást. Ez egy nagyon veszélyes mentalitás a fejlett AI rendszerek számára. ”
Ez abban az időben jön, amikor az Openai egyre növekvő ellenőrzés alatt áll azzal a vádat, hogy a „fényes termékeket” prioritást élvez a biztonság felett.