Az elmúlt időszakban egyre több mesterséges intelligencia (AI) fejlesztő vállalat fókuszál a terminálban való jelenlétre, hogy a fejlesztők munkafolyamataiban minél nagyobb szerepet tölthessen be. Korábban a harc főként a különböző kódszerkesztőkhöz kapcsolódott, de mostanra szinte minden nagyobb LLM (Large Language Model) szolgáltató belépett a terminálos alkalmazások piacára. Meglepő módon az AI-alapú terminál-alkalmazások fejlesztése és beépülése gyorsabb és egyszerűbb, mint egy teljes editor-integráció.
A videó során több népszerű megoldás – például Warp, Gemini, Claude és Copilot – került összehasonlításra. Az elhangzott tapasztalatok alapján mindegyik rendszer más-más területen erős: bizonyos modellek a kódgenerálásban kiemelkedőek, mások a parancsok vagy deploy feladatok automatizálásában jeleskednek. A vizsgálatok kiterjedtek különféle fejlesztői stackekre is, például Elixírre, Ruby on Rails-re vagy JavaScriptre.
Szó esik a szoftverek árképzésének gyors változásáról, és arról, hogy az LLM-ek mögöttes szolgáltatói (például Google, Anthropic, OpenAI) áremelései hogyan befolyásolják a végfelhasználókat. A felvetett kérdések között szerepelnek a használati limitek, felhőintegrációk, biztonsági sandboxok működése, illetve az offline támogatás lehetősége vagy annak hiánya is.
Az AI-terminál „háború” jelenlegi állása alapján felvetődik, melyik rendszer milyen környezetben teljesít a legjobban, és vajon merre tart a fejlesztői eszközök evolúciója a következő években? A videó ezekre a kérdésekre keresi a válaszokat, miközben betekintést ad az egyes megoldások mindennapi használatába.