A
A
  • Angol
  • Magyar
  • 10 perc

Okosabb AI, de a válaszok megbízhatósága csorbát szenvedhet

Az új generációs mesterséges intelligenciák egyre okosabbak, de egyre kevésbé hajlandóak beismerni, ha nem tudnak valamit. A videó három gyakorlati szabályt mutat, amivel csökkenthetők a félrevezető AI-válaszok.

Az AI modellek fejlődése ugrásszerűen megnövelte az intelligenciájukat, azonban ez a növekedés nem járt együtt az őszinteség arányos javulásával. Új kihívásként jelent meg, hogy a legújabb rendszerek sokkal ritkábban ismerik el, amikor nem tudják a választ valamire – inkább meggyőzően tippelnek.

A mesterséges intelligencia egyre több felhasználási területen segíti a mindennapi munkát, például szerződések vagy e-mailek adatainak kinyerésében. Ugyanakkor éppen ezeken a területeken jelent problémát, hogy az AI gyakran inkább kikövetkeztet valamit, minthogy üresen hagyna egy mezőt vagy beismerné bizonytalanságát. Ez hosszú távon megbízhatósági gondokat okozhat.

Felmerül az automatizációs elfogultság kérdése is: ahogyan az AI magabiztosabbnak tűnik, a felhasználók egyre kevésbé ellenőrzik annak válaszait, így a hibás eredmények könnyebben észrevétlenek maradnak. Mindez egy öngerjesztő spirált indíthat el, ahol a gépet túlzottan megbízhatóként kezelik.

A bemutatott három szabály célja, hogy ezeket a problémákat orvosolva hatékonyabb, megbízhatóbb válaszokat kapjunk: például a mesterséges intelligenciát kifejezetten arra utasítják, hogy hagyjon ki értékeket, ha nem biztos a válaszban, illetve magyarázza meg, miért üres a mező. Egy másik szabály szerint a helytelen válaszokat hangsúlyosan rosszabbként értékelik, mint az üres válaszokat, végül pedig minden egyes adatot forrással kell alátámasztani vagy megjelölni, ha az pusztán következtetés volt.

A videó számos példán keresztül világít rá, hogyan jelentkezhetnek ezek a kihívások a gyakorlatban, és milyen promptokkal lehet az AI-t még hasznosabb és megbízhatóbb asszisztenssé alakítani számodra.