Ha nem az Amazon számára volt, akkor teljesen lehetséges, hogy ahelyett, hogy Alexa -nak hívnánk, hogy megváltoztassuk a hangszóróink zenéjét, akkor valószínűleg inkább Evit hívtunk. Ennek oka az, hogy a ma ismert technika, amellyel az Amazon intelligens asszisztense az EVI nevével kezdte meg az életét (kiejtve az EE-Vee), az eredeti fejlesztő, William Tunstall-Pedoe nevét.
A brit vállalkozó és a számítógépes tudós a mesterséges intelligenciával kísérletezett, mielőtt a legtöbbünk még hallott volna róla. A Sci-Fi ihlette, „arrogánsan” arra törekedett, hogy 2008-ban az emberek számára módot teremtsen a számítógépekkel való beszélgetéshez-mondta az SXSW Londonban ezen a héten.
Arrogáns vagy sem, a Tunstall-Pedoe erőfeszítései annyira sikeresek voltak, hogy az EVI, amely 2012-ben elindult az Apple Siri-jével, az Amazon megvásárolta, és csatlakozott egy csapathoz, amely egy titkos hangsegéd-asszisztens projekten dolgozik. A projekt eredménye az volt, hogy a technológia, amelyet ma mindannyian Alexa -ként ismertünk.
Az eredeti misszió elérte, a Tunstall-Pedoe új kihívást jelent a látványában: az AI hallucinációk megölése, amely szerinte a technológiát nagyon kockázatossá teszi mindannyiunk számára. A hallucinációk a pontatlan információk és tartalom, amelyet az AI generál a vékony levegőből. A Tunstall-Pedoe, a technológia „belső problémája”.
Az Alexa -val végzett tapasztalata révén megtudta, hogy az emberek megszemélyesítik a technológiát, és feltételezik, hogy amikor visszatér velük, úgy gondolja, ahogy gondoljuk. „Amit csinál, valóban figyelemre méltó, de valami mást csinál a gondolkodáshoz”-mondta Tunstall-Pedoe. „Ez megfogalmazza az elvárásokat … hogy az, amit mond neked, igaz.”
Az AI -t generáló ostobaság számtalan példája azt mutatja, hogy az igazságot és a pontosságot soha nem garantálják. A Tunstall-Pedoe attól tartott, hogy az ipar nem tesz eleget a hallucinációk kezeléséhez, így létrehozta a saját társaságát, valószínűtlen AI-t, hogy megbirkózzon azzal, amit magas tétű problémának tekint.
Bármikor, amikor egy AI -vel beszélünk, van esély arra, hogy hamis az, amit mond nekünk, mondta. „Ezt elvonhatja az életedbe, döntéseket hozhat rajta, különben az interneten helyezheti el, és mások terjedhetnek (vagy) a jövő AIS képzésére, hogy a világ rosszabb hely legyen.”
Néhány AI hallucinációnak kevés hatása van, de az iparágakban, ahol a dolgok tévedésének költségei – például az orvostudományban, a törvényben, a pénzügyekben és a biztosításban -, a pontatlanul generált tartalom súlyos következményekkel járhat. Ezek az iparágak, amelyeket valószínűtlen AI egyelőre megcéloz-mondta a Tunstall-Pedoe
Valószínűtlen, hogy az AI a mély technológiák és a szabadalmaztatott technológiák keverékét használja a logikában a talajkimenetekhez, minimalizálva a hallucinációk kockázatát, valamint az algoritmusok döntéshozatali folyamatának naplózását. Ez lehetővé teszi a vállalatok számára, hogy megértsék, hol mentek a dolgok, amikor elkerülhetetlenül megteszik.
Jelenleg az AI soha nem lehet 100% -ban pontos az alapjául szolgáló tech miatt-mondta a Tunstall-Pedoe. De a saját társaságában és másoknál jelenleg zajló fejlődés azt jelenti, hogy egy pont felé haladunk, ahol pontosságot lehet elérni.
Jelenleg nem valószínű, hogy az AI-t elsősorban az üzleti ügyfelek használják, de végül a Tunstall-Pedoe úgy véli, hogy azt a szolgáltatásokba és a szoftverekbe építik, amelyek mindannyian használnak. A változás, amelyet az AI hoz létre, mint minden változás, kockázatot jelent nekünk – mondta. De összességében továbbra is „elfogult az optimizmus felé”, hogy az AI nettó pozitív lesz a társadalom számára.
Nézze meg ezt: A Siri inkább a chatgpt -hez hasonlíthat. De miért?
05:19








