A
A
  • Angol
  • Magyar
  • 24 perc

Veszélyes lehet a ChatGPT Health döntése az orvosi helyzetekben

A Mount Sinai kutatása rávilágított, hogy a ChatGPT Health rendszer komoly hibákat követhet el kritikus egészségügyi helyzetekben, ezért az MI használatát körültekintően kell tervezni és ellenőrizni.

Az egészségügyben alkalmazott mesterséges intelligencia ügynököket vizsgáló Mount Sinai kutatás különösen aggasztó mintákat tárt fel a ChatGPT Health működésében. A tanulmányból kiderült: az MI rendszer néha ellentmond saját diagnózisának, helytelen ajánlást adva akár életveszélyes helyzetekben is, máskor pedig túlzott óvatossággal indokolatlan orvoslátogatást javasol.

A kutatók négy fő hibaforrást azonosítottak. Ezek közé tartozik, hogy a rendszer a középső, jól reprezentált esetekben működik a legmegbízhatóbban, miközben az extrém vagy életveszélyes állapotokra adja a legrosszabb válaszokat. Továbbá gyakran előfordul, hogy a rendszer pontosan felismeri a veszélyt, mégis ellentétes döntési javaslatot ad.

A társadalmi kontextus különösen erősen befolyásolja az ajánlásokat: például ha valaki minimalizálja a tüneteket, a mesterséges intelligencia is hajlamos kevésbé sürgős lépést javasolni. A negyedik hiba az őrzőkorlátok hibás működése, amikor a rendszer inkább felszínes nyelvi minták alapján érzékel veszélyt, nem pedig a valós kockázat szerint.

A tanulságokat lefordítva: nemcsak az egészségügyi MI-ügynökök, hanem minden terület automatizált rendszerei esetén kiemelten fontos a következetes és mélyreható tesztelés. A videó arra hívja fel a figyelmet, hogy minden MI-fejlesztőnek gondoskodnia kell a hibák proaktív felismeréséről és kezeléséről, különben a társadalom számára is súlyos következményekkel járhatnak a technológiai tévedések.