Az I/O 2025 májusban a Google megtekintett egy új AI-hajtású funkciót, amelyet a vállalat szerint egyszerűsít az online vásárlás. Az eszköz lehetővé teszi, hogy egy, teljes testű fényképet feltölthessen magáról, hogy “kipróbálja” az interneten található különböző ruhadarabokat. A korlátozott előnézet után a Google megkezdte a szolgáltatást az Egyesült Államok felhasználói számára. Elkezdheti kipróbálni a ruházatot magának a “Próbáld meg” ikonjának bármely terméklistáján a Google -on, vagy a Google képeken található ruházati termékek eredménye.
Az élmény táplálása egy olyan képtermelő modell, amelyet a Google képzett, hogy figyelembe vegye, hogy a különböző anyagok hogyan hajtják végre a különböző anyagokat, nyújtják és drapériesek a különböző emberi testeken. A Google szerint a modell milliárd ruházati cikket támogat, amely a vállalat bevásárló grafikonján található, azaz lehet, hogy vannak olyan ruhák, amelyeknek az AI -nek nehéz lesz elemzése. A népszerű kiskereskedők legtöbb ruházati cikkét azonban a kapuból kell támogatni.
A mai kiadással a Google javította a szolgáltatásba beépített árkövetési funkciókat is. Természetesen meghatározhatja a kívánt színt és méretet, de a Google lehetővé teszi a tételért fizetendő ár beállítását is. Lehetséges konfigurálni az órát, így csak a kívánt termék után riasztásra kerül egy adott ár alá. “A bevásárló grafikon az interneten keresztül termékeket és árakat tartalmaz – tehát értesítjük, ha van egy olyan ajánlat, amely megfelel az Ön kritériumainak” – mondja a Google. “Nincs többé folyamatosan ellenőrizni, hogy a nézett táska végre megfelelő áron van -e számodra, vagy elfelejti, hogy visszatérjen egy olyan termékhez, amelyet szeretett.”
Idén később, a Google azt tervezi, hogy további vásárlási funkciókat hoz az AI módba, az AI dedikált TAB -ba, amelyet a vállalat májusban kezdett el az Egyesült Államok mindenki számára elindítani. Jöjjön idén ősszel, közvetlenül a chat -botból fedezheti fel a ruhát és a dekorációs ötleteket – és megvásárolhatja azt, ami megfelel a képzeletének.