Az Apple a mesterséges intelligencia és a hangvezérlés határán dolgozik, hogy új szintre emelje digitális asszisztensét, Sirit. Ez az átalakulás lehetőséget teremt arra, hogy a telefonhasználatot háttérbe szorítsuk, miközben kényelmesebbé válik a különböző eszközök közötti átjárás.
Különféle AI megoldások már most is jelen vannak a mindennapokban – legyen szó Google alapú Geminiről, ChatGPT-ről vagy éppen Siriről. Felmerül a kérdés, hogyan lehetne egységes és átfogó hangvezérlést megvalósítani az összes használt alkalmazásban, függetlenül attól, hogy az Apple készítette-e az adott appot vagy sem.
Az Apple azon dolgozik, hogy Siri ne csak a gyári alkalmazásokat kezelje, hanem külsős programokban, például az Uberben, az Amazonban, a YouTube-on vagy a WhatsAppban is végre tudjon hajtani összetett műveleteket. Ezzel együtt előtérbe kerül a megbízhatóság kérdése: vajon megbízunk-e egy AI-ban, amikor nem látjuk a képernyőn, mit csinál pontosan?
További újdonságok között szerepel, hogy az asszisztenshez olyan eszközök is kapcsolódhatnak, mint az Apple Watch vagy az AirPods. Ezek fejlesztése újabb lehetőségeket kínál az érzékelők, kamerák és a gesztusvezérlés témájában – szóba kerülnek például kamerával ellátott AirPod-ok és okosórák is. Más cégek, mint az OpenAI is dolgoznak új AI-asszisztenseken; a kérdés már csak az, valóban szükség van-e ezekre, ha az Apple már meglévő eszközei is betölthetik ezt a szerepet?
Végül felmerül a képernyő-függőség mérséklésének lehetősége: vajon az emberek valóban készek lesznek háttérbe szorítani telefonjaikat, ha a hangalapú asszisztensek már mindenben segítenek? Milyen funkciókat várnánk el a következő generációs Siritől, és mik lehetnek a jövő hands-free eszközei az Apple ökoszisztémában?