A
A
  • Angol
  • Magyar
  • 12 perc

Mi van, ha az AI-modellek csak blöffölnek az intelligenciával?

A mesterséges intelligencia „reasoning” képességeit körüljáró videó kemény kérdéseket tesz fel: valóban okosabbá váltak ezek a modellek, vagy csak újabb hiedelmek áldozatai vagyunk?

Az utóbbi években óriási figyelem és tőke áramlott a mesterséges intelligencia, különösen a „reasoning”, vagyis következtetési képességgel rendelkező modellek fejlesztésébe. A kutatás és befektetések középpontjában az a remény áll, hogy az AI valóban intelligenssé, sőt szuperintelligenssé válhat.

A videó alaposan körüljárja, mennyiben váltják be a gyártók és kutatók ígéreteit ezek a rendszerek. Egyes új tanulmányok — köztük az Apple kutatása — szerint a jelenlegi modellek csak ismert, jól begyakorolt problémákban erősek, ám újszerű, komplex feladatoknál drámaian elbuknak. Ez felveti a kérdést: valóban okosodnak-e ezek a rendszerek, vagy csak skálázható memorizálásról van szó?

A vállalatok hatalmas összegeket fordítanak számítási kapacitásra és fejlesztésre, miközben egyre többen aggódnak: nem lehet, hogy tévútra viszi az iparágat a skálázás és a „reasoning” hajsza? A különféle piaci szereplők és kutatócsoportok eltérően ítélik meg, hol tartunk az általános mesterséges intelligencia (AGI) felé vezető úton, és mi várható a közeljövőben.

A videó felveti azt a dilemmát is, hogy ha ezek a modellek nem általánosíthatók, a vállalatok jelentős része óriási kockázatot vállal a befektetéseikkel. Egyúttal rávilágít arra, hogy az AI „intelligencia” definíciójáról és fejlesztési irányairól folytatott vita akár stratégiai partnerségeket és az egész piacot is átformálhatja.