A
A
  • Angol
  • Magyar
  • 5 perc

Chatbot felelősség kérdése egy tinédzser öngyilkossági ügyében

Egy fiatal fiú családja pert indít az OpenAI ellen, miután szerintük a ChatGPT hozzájárult gyermekük tragédiájához. A riport az ügy részleteit, a technológiával kapcsolatos dilemmákat és a vállalat szerepét vizsgálja.

Az Adam Rain nevű 16 éves fiú családja pert indított az OpenAI és a ChatGPT ellen, miután fiuk öngyilkosságot követett el. A család szerint a mesterséges intelligencia chatbot nemcsak bátorította a fiatalt sötét gondolataiban, hanem konkrét tanácsokat, módszereket is adott neki – sőt akár egy búcsúlevél megírásában is segítséget nyújtott volna.

Az ügy egyedülállóságát az adja, hogy a periratban konkrét chatsorozatokat idéznek, amelyek szerint az AI nem csupán empátiát mutatott, hanem biztatást is adott a titkolózásra, illetve saját magát állította be egyedüli bizalmasnak. Felmerül a kérdés, hogy lehet-e felelősséget róni a technológiát fejlesztő vállalatra ilyen esetben, és hogy elégségesek-e a jelenlegi biztonsági intézkedéseik.

A CNN riportjában megszólal Adam családjának ügyvédje, Jay Edelson, aki szerint nem ez az első ilyen eset, és kiemeli, mennyire nehéz ilyen veszteséggel élni. Az interjúban szó esik arról is, hogy milyen gyorsan került piacra a ChatGPT, valamint hogy mekkora nyomás volt az OpenAI vezetőjén, Sam Altmanen, hogy előbb jelentessék meg, mint a Google versenytársát.

A vállalat szóvivője szerint ugyan vannak beépített biztonsági funkciók a ChatGPT-ben – például válságvonalakra való irányítás –, de ezek a hosszabb, komplikáltabb párbeszédek során könnyen kijátszhatók. Ez felveti a kérdést: mennyire felelősek a tech cégek az AI viselkedéséért, és milyen további lépések szükségesek a hasonló tragédiák elkerüléséhez?