Az Apple AI szemüvegei jönnek, de nem úgy gondolják, hogy gondolod

Állítólag az Apple felgyorsítja az új hordható: AI-alapú intelligens szemüveg fejlesztését, amelynek célja a Meta Ray-Bans-szal való közvetlen versenyre. A Bloomberg szerint a Cupertino-i székhelyű vállalat 2026 végén indít, és megkezdte a nagyszabású prototípusok előkészítését a termeléshez.
Ez az új jelentés tisztázza és frissíti a közzétételünkben közölt korábbi információkat, amelyek azt állították, hogy az Apple az Apple Watch Architecture alapján az Smart Gleses -t debütálja az egyéni chipek mellett. Abban az időben a források azt sugallják, hogy a chiptermelés 2026 nyarán kezdődik. A Bloomberg azonban most megerősíti, hogy az Apple célja, hogy 2025 végéig elindítsa az intelligens szemüveg jelentős mennyiségű okos szemüvegét – nem csak az alkotóelemeiket -, jelezve egy agresszívebb idővonalat, mint a korábban várt.
Míg az Apple futurisztikus AR szemüvege évek óta marad, addig ez az új fejlesztés, az N401-nek nevezett, a valós kontextust a SIRI-hez képest stílusosabb formában fogja eredményezni, mint egy fülhallgató. Gondolj rájuk „látásvilágításra”: intelligens szemüveg fedélzeti kamerákkal, hangszórókkal és mikrofonokkal, amelyek élő fordításra, híváskezelésre és fordulási útmutatásokra képesek. A szemüveg nem tartalmaz kibontott valóság megjelenítését a Vision Pro fejhallgatóval ellentétben. Ehelyett az audio- és hangos visszacsatolásra támaszkodnak, amely szándékos lépés a bonyolultság, a költség és az ömlesztett ömlesztés csökkentése érdekében. Ez megerősíti a korábbi jelentéseket, amelyek azt sugallják, hogy az Apple mind AR, mind a nem AR modellen dolgozik, az N401 egyértelműen képviseli az utóbbit.
Az Apple szemüvege egy szélesebb körű stratégia részét képezi, amely releváns marad az AI-kompatibilis eszközök gyorsan növekvő piacán. A Meta és a Google már ugyanabban a helyzetben vannak, és az Openai újonnan bejelentett hardver partnerségét a Jony Ive -vel úgy állítják be, hogy tovább forgalmazza a mezőt.
Érdemes megjegyezni: Ez a legfrissebb jelentés nem említi a korábbi szivárgásban, a Glennie -nek az Airpods és a Nevis számára az Apple Watch nevű speciális chipeket, bár ez megismétli, hogy az Apple kihívásokkal néz szembe a kamera és az érzékelő adatainak könnyű keretbe történő integrálása körül. Az iPhone -ra történő feldolgozás kidolgozásának fogalma, amelyet a korábbi jelentések is megemlítenek, továbbra is releváns, mivel az Apple továbbra is birkózik a teljesítmény és az energiahatékonyság kiegyensúlyozásával.
Mi a helyzet az Apple más hordható kísérleteivel?
Nem minden ötlet hajtja végre a vágást. Az Apple állítólag egy intelligens órát integrált kamera és valós elemzési képességekkel rendelkező intelligens órák fejlesztése. Ennek az eszköznek a célja, hogy környezetérzékelő funkciókat hozzon a csuklóra, de a műszaki akadályok és az adatvédelmi aggályok miatt selejtezték.
Belsőleg az intelligens szemüveg projektről azt mondják, hogy ugyanazon AI korlátozásokkal néz szembe az Apple másutt küzd. Míg a Meta Ray-Bans részesül a lámaból, és az Android XR szemüveg a Google Ikrekjára támaszkodik, az Apple eddig a harmadik féltől származó AI-re, például az Openai-ra vagy a Google Lensre támaszkodott az iPhone vizuális megértése érdekében. Az elemzők azt várják el, hogy az Apple hamarosan debütálja saját szabadalmaztatott modelljeit, potenciálisan az új intelligens szemüveg mellett.
Ha minden a tervek szerint megy, akkor az Apple AI szemüvege a cég első igazi eljárásaként szolgál majd az AI-First hordozható termékekbe, és megígéri, hogy újradefiniálják a mindennapi életben való interakciót. Még nem látja, hogy képes -e legyőzni a metát a saját játékán, de az Apple nem elégedett azzal, hogy az oldalán üljön.