A Google az AI alapelveinek egyik legfontosabb változtatását hajtotta végre, mióta először közzétette őket 2018 -ban. "tervezés vagy telepítés" AI eszközök fegyverekhez vagy megfigyelő technológiákhoz való felhasználáshoz. Korábban ezek az iránymutatások tartalmaztak egy című részt "pályázatokat, amelyeket nem fogunk folytatni," amely nincs jelen a dokumentum jelenlegi verziójában.
Ehelyett van egy most egy szakasz, amelynek címe "felelősségteljes fejlesztés és telepítés." Ott, a Google azt mondja, hogy megvalósul "Megfelelő emberi felügyelet, átvilágítási és visszajelzési mechanizmusok, amelyek összehangolják a felhasználói célokat, a társadalmi felelősséget, valamint a nemzetközi jog és az emberi jogok széles körben elfogadott alapelveit."
Ez sokkal szélesebb körű elkötelezettség, mint az a konkrét, amelyet a vállalat a múlt hónap végének végére tett, amikor az AI alapelveinek korábbi verziója még mindig élt a weboldalán. Például, mivel a fegyverekre vonatkozik, a vállalat korábban azt mondta "Fegyverek vagy más technológiák, amelyek fő célja vagy végrehajtása az emberek sérülése vagy közvetlenül megkönnyíti. ” Ami az AI megfigyelő eszközöket illeti, a vállalat azt mondta, hogy nem fejleszti ki a megsértő technikát "Nemzetközileg elfogadott normák."
Amikor megjegyzést kértek, egy Google szóvivője az Engadget -et egy csütörtökön közzétett blogbejegyzésre mutatta be. Ebben a Deepmind vezérigazgatója, Demis Hassabis és James Manyika, a Google kutatási, laboratóriumi, technológiai és társadalmi vezető alelnöke, az AI megjelenése "általános célú technológia" Szüksége volt egy politikai változásra.
"Úgy gondoljuk, hogy a demokráciáknak vezetniük kell az AI fejlődésében, amelyet olyan alapvető értékek vezetnek, mint a szabadság, az egyenlőség és az emberi jogok tiszteletben tartása. Úgy gondoljuk, hogy az ezeket az értékeket megosztó vállalatoknak, kormányoknak és szervezeteknek együtt kell működniük olyan AI létrehozásában, amely megvédi az embereket, elősegíti a globális növekedést és támogatja a nemzeti biztonságot," A kettő írta. "… Az AI alapelveink vezetésével továbbra is az AI kutatásokra és az alkalmazásokra összpontosítunk, amelyek igazodnak küldetésünkhöz, tudományos fókuszunkhoz és szakterületeinkhez, és összhangban maradnak a nemzetközi jog és az emberi jogok széles körben elfogadott alapelveivel – mindig értékeljük a konkrét konkrét konkrét értékelést A munka gondos értékelésével, hogy az előnyök jelentősen meghaladják -e a lehetséges kockázatokat."
Amikor a Google először közzétette az AI alapelveit 2018 -ban, ezt a Maven projekt után tette. Ellentmondásos kormányzati szerződés volt, amely, ha a Google úgy döntött, hogy megújítja, látta volna, hogy a vállalat AI szoftvert biztosít a Védelmi Minisztérium számára a drón felvételek elemzéséhez. Több tucat Google alkalmazott elhagyta a társaságot a szerződés tiltakozása céljából, és több ezer petíciót írt alá. Amikor a Google végül közzétette új irányelveit, Sundar Pichai vezérigazgató állítólag azt mondta a személyzetnek, hogy reménykedni fognak "az idő próbája."
2021 -re azonban a Google újra elkezdett katonai szerződéseket folytatni, azzal, ami állítólag an "agresszív" Tegyen ajánlatot a Pentagon közös harciharc felhő képességének felhő szerződésére. Ez év elején a Washington Post arról számolt be, hogy a Google alkalmazottai többször együttműködtek az Izrael Védelmi Minisztériumával, hogy kibővítsék a kormány AI eszközök használatát.
Ez a cikk eredetileg az Engadget-en jelent meg a https://www.enggadget.com/ai/google-now-thinks-its-okto-touseai-for-2eapons-and-curveillance-224824373.html?src=RSSS