A Google I/O fejlesztői konferencián bemutatták, hogyan működik a Google Gemini mesterséges intelligencia az Aloha 2 robotkarokban. Ezek a robotok képesek hangutasítások alapján végrehajtani feladatokat – például tárgyak felvételét, elhelyezését, vagy akár egy origami figura hajtogatását és egy mini kosárlabda zsákolását.
Az élő bemutatón látható volt, hogyan értelmezik a robotok a sokszor pontatlan, többértelmű instrukciókat, és hogy milyen kihívást jelent számukra az önálló döntéshozatal a való életben. Emellett a Gemini kifinomult multimodális képességeiről is szó esett, amelyek lehetővé teszik, hogy a robot egyszerre kezeljen szöveges, hang- és képi információkat.
Felmerül a kérdés, hogy az általánosabb, többféle bemenetre képes mesterséges intelligencia milyen gyorsan fejlődhet a robotikában – hogyan változik meg a robotok szerepe, és milyen irányba mozdul el a fejlesztés, ha egyszerre több gyártó is ebbe az irányba lép.
Az is érdekesség, hogy a Google nem csak robotkarokat, hanem együttműködéseket is keres más robotikai vállalatokkal, például az Aptronic-kal, amely az Apollo humanoid robotot fejleszti. Mindez azt vetíti előre, hogy hamarosan a hétköznapok része lehet az olyan AI-technológia, amely eddig csak laborokban volt elérhető.