Az esemény a Google I/O konferencián, a Google campusán zajlik, ahol Brian Tong élőben mutatja be az Android XR szemüveg legújabb prototípusát. A bemutató során részletesen ismerteti, hogyan működik a hardver és a mögötte álló Gemini mesterségesintelligencia-platform, amely a Google jövőbeli viselhető eszközeinek szívét képezi.
Az XR szemüvegekkel végrehajtott demók során szó esik természetes, beszélgetésalapú interakciókról, valós idejű fordításról, térképes navigációról és vizuális felismerésről. Külön érdekesség, hogy a Gemini platform multimodális képességei révén a szemüveg képes képeket, szövegeket és hangokat egyaránt értelmezni, és egyidejűleg reagálni a felhasználó kérdéseire.
Felmerülnek kérdések az Android XR jövőbeli piacra kerüléséről, a gyártói együttműködésekről – mint például a Samsung vagy a Gentle Monster –, illetve a Meta, az Apple és más szereplők lemaradásáról az AI-integrációban. A beszámoló érinti a Project Muhan nevű headset demóját is, amely a Samsung és a Qualcomm együttműködésében készül, továbbá szó esik az Android új funkcióiról, dizájnjáról és a Gemini további integrációjáról más platformokra is, például TV-kre és autókba.
A technológiai újdonságokon túl kiemelt hangsúlyt kap, mennyire természetes és könnyed lehet a jövőben az AI-val való interakció nemcsak fejlett felhasználóknak, hanem laikusoknak is, főként a mindennapi tevékenységek – például vásárlás vagy ügyintézés – során.