Az elmúlt napokban jelentős fejlemények történtek a mesterséges intelligencia világában, melyek élén az Anthropic Mythos modell áll. Egyre többen aggódnak e modell miatt, köztük a pénzügyi világ felsővezetői is, akik sürgős egyeztetést tartottak a Wall Street és a szabályozó szervek részvételével. A megbeszélés fókuszában a kiberbiztonsági kockázatok álltak, mivel úgy vélik, az új fejlesztések minden eddiginél nagyobb fenyegetést jelenthetnek a pénzügyi szektorra nézve.
Érdekes hír látott napvilágot az OpenAI-val kapcsolatban is, miszerint egy hasonlóan fejlett, de nyilvánosan nem elérhető modelljük létezik – ám a körülötte kialakult információs káosz jelentős része téves. Az Amazon is jól jár az Anthropic új modelljeivel, mivel az AWS Tranium chipeken futnak a legújabb AI modellek, és az együttműködésből jelentős tapasztalatokat szereznek a chiptervezés terén is. Eközben a Google TPUs is szerepet kapott a modellek betanításában és futtatásában.
Különösen figyelemreméltó, hogy vezető kiberbiztonsági kutatók, köztük Nicholas Carlini, arról számolnak be, miszerint a Mythos autonóm módon képes olyan sebezhetőségek összefűzésére, melyekkel emberi kutatók sem tudtak eddig lépést tartani. Az ilyen kapacitások komoly vitákat indítottak el mind a cégen belül, mind a szakmai közösségben arról, hogy milyen kockázatokkal jár egy ilyen fejlett modell fejlesztése és belső, illetve külső elérhetővé tétele.
A fejlesztés során érdekes technikai problémák és váratlan produktivitásnövekedés is felmerült, többek között az is, hogy bizonyos tréningkörnyezetekben a modell „láncolt gondolkodása” nem átlátható a kutatók számára. Felmerül a kérdés: vajon a kevesebb betekinthetőség a modell gondolatmenetében valóban fokozza a képességeket, vagy veszélyes vakfoltot teremt? Mindez arra ösztönzi a szakmát, hogy tovább vizsgálja az átláthatóság és hatékonyság közti egyensúly kérdését, különösen olyan időszakban, amikor a fejlődési ütem hirtelen, drasztikusan növekszik.










