Az emberi gondolkodás korlátainak lebontásával a mesterséges intelligencia (MI) fejlődése egyre mélyebb és összetettebb kérdéseket vet fel, különösen az AI biztonság és korlátozások témakörében. A bemutatott modell, a Qwen3.5 9B egy olyan verziója, amelyből tudatosan eltávolították a visszautasítási mechanizmust: így nem mond nemet kényes kérésekre sem, lehetővé téve a felhasználó számára, hogy mélyebb és árnyaltabb választ kapjon akár etikus, akár problémás területeken.
A videó betekintést nyújt abba is, hogy mi az „obliteration” – egy módszer, amellyel célzottan lehet eltávolítani a modellek etikai, biztonsági vagy más típusú elutasításait anélkül, hogy a többi képességük sérülne. Ezzel új távlatok nyílnak például a vörös csapatok (red teaming) előtt: a biztonsági szakértők reálisabb tesztkörnyezetet hozhatnak létre, ahol az MI ténylegesen végig tud gondolni támadási forgatókönyveket, amelyeket máshol automatikusan visszautasítana.
Felmerül a kérdés: hol húzódik a határ a hasznos kutatási szabadság és a potenciális veszélyek között? A videó rávilágít, hogy ilyen modellek csak szűk körű tesztelésre, kutatásra, fejlesztői és kreatív célokra ajánlottak, hiszen az eltávolított biztonsági mechanizmusok nélkülözhetetlenek a nyilvános, nagyközönség számára elérhető alkalmazásoknál. Az is körbejárásra kerül, hogyan lehet egy ilyen modellt letölteni és saját környezetben futtatni, valamint bemutat néhány gyakorlati példát, hogyan teljesítenek ezek az eltávolított korlátú LLM-ek az etikai korlátok nélküli helyzetekben.
Érdekes felvetések jelennek meg arról is, hogy a tudatosan módosított MI milyen erkölcsi, jogi és informatikai felelősségi kérdéseket vet fel. Továbbá bemutatásra kerül a modell technikai háttere, az eltávolítás módszertana és annak lehetséges hatásai a mesterséges intelligencia jövőbeni fejlődésére, illetve a társadalmi biztonságra.










