A tartalom egy valós példán keresztül mutatja be, hogyan fordítható át egy digitális felhasználói felület-terv (layout) kóddá mesterséges intelligencia segítségével. Az előadó négy különböző módszert mutat be, amelyek eltérő részletességgel és automatizáltsággal dolgoznak.
Egy egyszerű képernyőkép (screenshot) felhasználásával indít, amit aztán különböző eszközökbe és AI rendszerekbe tölt fel. Megvizsgálja, hogyan viszonyul a mesterséges intelligencia az inputhoz, amikor csak képet, vagy amikor részletes, tokenizált információkat is kap – például színeket, tipográfiát, térközöket.
Külön kitér arra is, hogy mi történik, ha a Google Gemini 2.5 Pro-t használja a layout kódolására, illetve hogy miként lehet a lehető legpontosabban visszaadni egy Figma-tervet a Figma MCP szerver segítségével. Felmerül az a kérdés is, hogy mennyire számít az előzetes beállítások vagy rétegek elnevezése, illetve hogyan érdemes összetettebb elrendezéseknél, például dashboardoknál, lépésekben kódolni.
A bemutató tanulságai között hangsúlyt kap, mennyire hatékony az a megközelítés, amikor a tervezés során már odafigyelünk a CMPL szerverrel való integrációra, illetve milyen erősségei és korlátai vannak az egyes módszereknek a gyakorlatban.