Egy javaslat az AI társaságok ellenőrzésében: Biztosítás

A generatív AI gyors növekedése gyakorlatilag egy éjszakán át több milliárd dolláros iparágot épített fel, ám a South by Southwest panelistái szerint a nagy AI-társaságok kevesebb felügyeletet mutatnak, mint a texasi Austinon kívüli vállalkozásokon kívüli vállalkozások.
“Több szabályozás van egy élelmiszer -teherautóra, mint amennyire van ezen a technológián” – mondta Emilia Javorsky, a Life Institute Future Program igazgatója, az SXSW -ben a hétfőn.
“Ennek része azért van, mert jobban megértjük az élelmiszer -teherautót, mint ezt a technológiát értjük” – jegyezte meg Daniel Kokotajlo, a Chatgpt Maker Openai volt biztonsági kutatója, aki 2024 -ben elhagyta a társaságot, hogy felszólaljon az ipar további biztonságának és átláthatóságának szükségességéről.
A mesterséges intelligencia meteorikus emelkedése és a technológiában rejlő összetettség különösen megnehezíti a szabályok és a védekezők kidolgozását, és túlmutat a politikai megfontolásokon, hogy valami megtörténjen.
De rengeteg ötlet van, köztük a Harvard Law professzor, Lawrence Lessig professzora: Az AI fejlesztőknek a biztosítási igénylését követeli meg.
“Nagyon fontos, hogy megértsük, hogy a szabályozást nem pusztítjuk el, lehetővé teszi, ha okos” – mondta Lessig a testület színpadán.
Az átláthatóság szükségessége
A “bizalom” gondolata az SXSW mesterséges intelligenciájáról szóló számos előadó gondolatában állt, a szakértők nemcsak a szuperintelligencia tudományos fantasztikus hangzású potenciáljáról, hanem az elfogultság és hibák gyakorlati hatásairól is aggasztják, mint például a chatbotok.
A kérdés az, hogyan lehet biztosítani, hogy minden AI fejlesztő kiépíti ezt a bizalmat. Az AI biztonság olyan téma, amelyet a vállalatok tudnak, hogy foglalkozniuk kell. Csak tanúja legyen az Openai, a Google, a Microsoft, az Antropic, az Adobe és másutt.
Javorsky javasolta a szabályozási struktúrát, amely nem különbözik a vényköteles gyógyszerek kialakulásával kapcsolatban: gondoljon az AI élelmiszer- és gyógyszer -adminisztrációjára. A gyógyszerek fejlesztéséhez felhasznált erőforrások többsége annak bizonyítására irányul, hogy biztonságban vannak, és bizalmat teremtenek azokban a termékekben, miután eljutnak a piacra. Amikor a fogyasztók úgy érzik, hogy egy termék biztonságos, akkor kevésbé aggódnak a használatával kapcsolatban.
“Még olyan szemszögéből is, aki csak azt akarja látni, hogy az AI iparként virágzik, a biztonságot érdekelnie kell” – mondta Javorsky.
Kokotajlo és Lessig egyaránt ösztönözték az AI -társaságok munkavállalói bejelentőinek védelmét. A meglévő bejelentőjogi törvények védik az illegális tevékenységeket, de az új technológiák, például a mesterséges intelligencia bevonásával járó potenciálisan veszélyes tevékenységek törvényesek. Egyszerűen nincsenek törvények az ilyen típusú dolgokról.
Lessig elmondta, hogy az Európai Unió AI rendeleteinek túl bonyolultak, és nem kényszerítik a vállalatokat, hogy alapértelmezés szerint tegyék meg a helyes dolgot.
“Azt hiszem, ehelyett komoly beszélgetést kell kidolgoznunk a szabályozás minimális életképes termékéről” – mondta. “A minimális életképes termék az, hogy ösztönzőket építsenek ezen vállalatokon belül, hogy a helyes módon viselkedjenek.”
Biztosítás mint AI -szabályozás
Lessig elmondta, hogy az AI fejlesztőknek a biztosítási igénylését megköveteli, hogy piaci ösztönzőket hozzon létre a felelősségért. A biztosítótársaságok a vállalati termékek és viselkedés kockázatossága alapján határozzák meg az árakat, azaz drágább lenne olyan termékek készítése, amelyekben nincs elegendő védőkorlát.
A biztosítási fedezeti követelmények más összefüggésekben léteznek, hogy az árat alapvetően kockázatos és felelőtlen viselkedésre tegyék. Gondoljon arra, hogy a gépjármű -biztosítási díjak hogyan emelkednek, ha rossz vezetési rekordja van, és ha biztonságos vezetési előzménye van.
“Kezdetben durva lesz, és akkor lesz néhány biztosítótársaság, amely kijön és gondolkodik azon, hogyan lehet másképp forgalmazni” – mondta Lessig a CNET a testület után. “Ez az a fajta ösztönzés, amelyet létrehoznunk kell, ezt a fajta versenyhatást annak meghatározására, hogy pontosan mi az a biztonsági kockázat, amelyet biztosítani kell.”
A biztosítási követelmény nem oldja meg mindent – mondta Lessig, de ösztönzőket teremt a vállalatok számára a robusztus és elszámoltatható biztonsági követelmények kidolgozására, mivel az okosabb és okosabb AI rendszereket szorgalmazzák.
“A biztosítás számomra az a dolog, amely foglalkozik a szökött kockázat alapvető aggodalmával, miszerint ez hatalmas károkat okoz a társadalomnak” – mondta.