Néhány vezető kutató távozása után az OpenAI-t azzal vádolják, hogy nem osztja meg teljes egészében a belső kutatási eredményeit, különösen azokat, amelyek negatív gazdasági hatásokat festenek le a mesterséges intelligencia fejlődéséről. A Wired eredeti riportja szerint a vállalat korábban rendszeresen publikálta azokat a tanulmányokat, amelyek az MI technológiáik társadalmi és munkaerőpiaci következményeiről szóltak, de az utóbbi időben e téren bezárkózási tendencia mutatkozik.
A szóban forgó videó kitér arra, hogy az OpenAI nemrégiben bemutatott GPT 5.2 modellje jelentős előrelépést ért el az emberi szakértőkhöz viszonyított teljesítményben, tovább erősítve azokat a félelmeket, miszerint bizonyos munkakörök—különösen a pályakezdőké—fokozottan veszélyben lehetnek az automatizálás miatt.
Egyes versenytársak, mint az Anthropic, sokkal nyíltabban kommunikálják a kutatási eredményeiket: Dario Amode többször is hangsúlyozta az úgynevezett „white collar bloodbath” (irodai munkahelyek tömeges megszűnése) kockázatait. A Stanford és Anthropic közös tanulmánya alapján főként a frissen végzett, 22-25 éves munkavállalók pozíciói veszélyeztetettek, míg a tapasztaltabbak kevésbé érintettek.
A riport végigveszi, hogy az MI-szektor cégei hogyan reagálnak a társadalmi aggodalmakra, illetve milyen szempontok játszhatnak szerepet abban, ha egy vállalat visszafogja a transzparenciát, főként a tőzsdei bevezetés (IPO) előtt. Felmerül a kérdés, hogy az OpenAI visszatart-e fontos kutatási adatokat, illetve ezek az információk milyen hatással lennének a nyilvános diskurzusra vagy épp a vállalat megítélésére.









