A mesterséges intelligencia egyik fő problémája a számítógép memóriája és feldolgozási képességei közötti kölcsönhatás. Amikor egy algoritmus működik, az adatok gyorsan áramlanak e két összetevő között. Az AI-modellek azonban hatalmas mennyiségű adatra támaszkodnak, ami szűk keresztmetszetet teremt.
A új tanulmányA Purdue Egyetem és a Georgiai Technológiai Intézet által a Frontiers in Science folyóiratban hétfőn publikált új megközelítést javasol az AI-modellek számítógépes architektúrájának agy által inspirált algoritmusok segítségével történő felépítéséhez. A kutatók szerint az algoritmusok ilyen módon történő létrehozása csökkentheti az AI modellekkel kapcsolatos energiaköltségeket.
„A nyelvi feldolgozó modellek mérete 5000-szeresére nőtt az elmúlt négy évben” – mondta Kaushik Roy, a Purdue Egyetem számítástechnikai professzora és a tanulmány vezető szerzője. nyilatkozatban. „Ez a riasztóan gyors terjeszkedés döntő fontosságúvá teszi, hogy a mesterséges intelligencia a lehető leghatékonyabb legyen. Ez azt jelenti, hogy alapvetően újra kell gondolni a számítógépek tervezését.”
Ne hagyja ki elfogulatlan műszaki tartalmainkat és laboratóriumi értékeléseinket sem. Adja hozzá a CNET-t preferált Google-forrásként. Ne hagyja ki elfogulatlan műszaki tartalmainkat és laboratóriumi értékeléseinket sem. Adja hozzá a CNET-t preferált Google-forrásként.
A legtöbb mai számítógép egy 1945-ös, a feldolgozást és a memóriát elválasztó Neumann-architektúra elnevezésű ötlet alapján készült. Itt következik be a lassulás. Ahogy világszerte egyre többen használnak adatra éhes mesterséges intelligencia modelleket, a számítógép feldolgozása és memóriakapacitása közötti különbségtétel egyre jelentősebb kérdéssé válhat.
Az IBM kutatói felhívták a figyelmet erre a problémára egy bejegyzésben az év elején. A problémát, amellyel a számítógépes mérnökök szembesülnek, „memóriafalnak” nevezik.
Az emlékfal áttörése
A emlékfal a memória és a feldolgozási képességek közötti eltérésre utal. Lényegében a számítógép memóriája nehezen tud lépést tartani a feldolgozási sebességgel. Ez nem új kérdés. Kutatópáros a Virginiai Egyetemről alkotta meg a kifejezést még az 1990-es években.
De most, hogy a mesterséges intelligencia elterjedt, a memóriafal-probléma időt és energiát vesz fel a mögöttes számítógépekben, amelyek az AI-modelleket működtetik. A lap kutatói azzal érvelnek, hogy kipróbálhatnánk egy új számítógépes architektúrát, amely integrálja a memóriát és a feldolgozást.
Az agyunk működése által ihletett AI-algoritmusok, amelyekre a cikkben hivatkozunk, az úgynevezett tüskés neurális hálózatok. A múltban az algoritmusok általános kritikája az volt, hogy lassúak és pontatlanok lehetnek. Egyes informatikusok azonban azzal érvelnek ezeknek az algoritmusoknak van jelentős javulást mutatott az elmúlt néhány évben.
A kutatók azt javasolják, hogy az AI-modellek egy, az SNN-ekhez kapcsolódó koncepciót alkalmazzanak számítás a memóriában. Ez a koncepció még viszonylag új a mesterséges intelligencia területén.
„A CIM ígéretes megoldást kínál a memóriafal problémájára azáltal, hogy a számítási képességeket közvetlenül a memóriarendszerbe integrálja” – írják a szerzők a tanulmány absztraktjában.
Az orvosi eszközök, a szállítás és a drónok néhány olyan terület, ahol a kutatók úgy vélik, hogy a számítógépes feldolgozás és a memória egyetlen rendszerbe integrálása javítható.
„A mesterséges intelligencia a 21. század egyik legátalakítóbb technológiája. Ahhoz azonban, hogy kimozdítsuk az adatközpontokból a való világba, drámaian csökkentenünk kell az energiafelhasználását” – mondta Tanvi Sharma, a Purdue Egyetem társszerzője és kutatója.
„A kevesebb adatátvitel és a hatékonyabb feldolgozás révén a mesterséges intelligencia elfér a kis, megfizethető, hosszabb ideig tartó akkumulátorral rendelkező eszközökben” – mondta Sharma.









