Ebben a bemutatóban egy mobilalkalmazás fejlesztési folyamatába nyerünk bepillantást, amely lehetővé teszi laboreredmények elemzését mesterséges intelligencia segítségével. Az alkalmazás felhasználója pillanatfelvételt készít, vagy PDF fájlt tölt fel a laborleletéről, amit aztán a Google Gemini mesterséges intelligencia API-ja dolgoz fel.
A fejlesztési folyamat lépései is terítékre kerülnek: a tervezés a Figmában történik, majd az elkészült felületet a Figma Make-en keresztül összekötik az intelligens háttérrel. Bemutatásra kerül, hogyan lehet az egyes tervezési kereteket és elemeket átemelni egyik rendszerből a másikba.
Izgalmas kérdésként merül fel, hogy mennyire megbízható az AI által végzett értelmezés, mennyire gördülékenyen integrálhatóak a különféle API-k, és hogy ennek a fejlesztési folyamatnak milyen buktatói lehetnek. Az is felmerül, mennyire helyettesítheti egy ilyen digitális segéd a hagyományos egészségügyi konzultációkat.
A videó rávilágít arra is, hogy bár egyre jobbak a mesterséges intelligenciát használó eszközök, a fejlesztés során gyakoriak a hibák és az utólagos módosítások, amelyeket lépésről lépésre tesztel és javít a készítő. Mindemellett hangsúlyos, hogy ezekkel a megoldásokkal személyre szabott, saját használatra fejlesztett digitális asszisztensek jöhetnek létre, akár néhány óra alatt.










