A
A

Csak YouTube-on nézhető meg

  • Angol
  • Magyar
  • 10 perc

Egyszerűsítsd az AI API-hívások tesztelését egy új fejlesztői eszközzel

Egy új fejlesztői eszközt ismerhetsz meg, amellyel a böngészőben rögzített AI API-hívásokat néhány kattintással automatizált tesztekké alakíthatod, akár helyi környezetben is.

Az API-alapú mesterségesintelligencia-modellekkel dolgozó fejlesztők gyakran szembesülnek azzal a helyzettel, amikor a böngészőből indított API-hívások hibátlanul működnek, viszont éles rendszeren már nem. Gyakori problémák lehetnek az ismeretlen paraméterek, lejárt autentikációs tokenek, vagy az, hogy nem lehet pontosan rekonstruálni a kérés tartalmát.

Ebben az áttekintésben egy új fejlesztői eszköz kerül bemutatásra, amely jelentősen leegyszerűsíti az API-tesztek készítését. A szemléltetés egy Llama-alapú, helyi mesterségesintelligencia-modellen történik, konkrétan az Olama platform segítségével, ahol a GLM4.7 Flash modellt alkalmazzák.

A bemutatott módszer lényege, hogy a böngészőben végzett AI-chatelés során létrejött közlekedési HAR fájl automatikusan rögzít minden érdemi API-hívást: URL-eket, fejléceket, autentikációs adatokat és testreszabott paramétereket is. Ezekből könnyedén készíthetők újrahasználható, tesztelhető API-folyamatok, amelyek egy gombnyomással vissza is játszhatók.

További érdekes funkcióként bemutatja az eszköz környezetkezelési lehetőségeit – így akár több tesztelési környezet (például staging, UAT) is létrehozható változókkal és értékekkel. A tesztfolyamat futtatható grafikus alkalmazásból vagy parancssoros felületen keresztül is, így a fejlesztők könnyedén integrálhatják saját CI/CD folyamataikba.

Az eszköz előnyei közé tartozik, hogy egyszerre kínál nyílt forráskódú asztali alkalmazást és CLI-t, vizuális folyamatépítőt, gyorsaságot, valamint hogy teljesen helyi futtatást tesz lehetővé felhőszolgáltatások nélkül. Ezek a megoldások új szintet képviselnek az API-tesztek automatizálásában.