A
A
  • Angol
  • Magyar
  • 13 perc

Helyi nagy nyelvi modellek integrálása a VS Code-ban: gyakorlati útmutató

Praktikus útmutató ahhoz, hogyan integrálhatsz és használhatsz helyi vagy saját hosztolt nagy nyelvi modelleket a Visual Studio Code fejlesztői környezetben.

Az alkotó bemutatja, hogyan lehet a Visual Studio Code különböző változataiban (főleg az Insiders, azaz a zöld verzióban) helyi és távoli mesterséges intelligencia modelleket integrálni és tesztelni. Azonnal felvetődik a kérdés: melyik verzió alkalmas leginkább a legújabb funkciók kipróbálására, és hogyan lehet gyorsan átváltani köztük?

A videó számos nagy nyelvi modell – például OpenAI GPT, Claude, Kim K2 Thinking és Quen Coder – elérhetőségét és menedzselését járja körül a VS Code felületén belül. Külön figyelmet fordít arra, hogy ezek közül melyeket lehet teljesen helyben futtatni – például LM Studio segítségével –, illetve miként lehet távoli szervereken hosztolt modelleket konfigurálni egyedi API URL-ek megadásával.

Szóba kerülnek a különféle beállítási trükkök és gyakorlati tippek is: hogyan lehet modelleket hozzáadni a beállítások JSON fájlján keresztül, miként lehet meghatározni az elérhető funkciókat (például tool calling, vision vagy thinking), valamint hogyan kell megadni a maximális token limitet, amivel a modellek dolgozni tudnak.

Többek között felmerülnek biztonsági és adatvédelmi kérdések is: mennyire marad lokális a kódod, ha mégis felhőben hosztolt modelleket használsz, és milyen kompromisszumokat kell vállalni a teljesítmény és az adatbiztonság között. Ezek mellett érdekességként szó esik a gyors prototípus-fejlesztést lehetővé tevő AI platformokról, mint például a Chat LLM Teams és az Abacus AI Desktop.