Umetno inteligenco krivita za samomor sina
27. avg. 2025 11:15 Osveženo: 11:18 / 27. 8. 2025


Slika je ilustrrativna
Starša 16-letnika iz Kalifornije, ki je storil samomor, sta v ponedeljek na zveznem sodišču te ameriške zvezne države vložila tožbo proti ameriškemu tehnološkemu podjetju OpenAI, ker naj bi njihov klepetalni robot ChatGPT njunemu sinu dal navodila za samomor in ga k njemu spodbudil, poročajo tuje tiskovne agencije.
Matthew and Maria Raine v tožbi trdita, da je v mesecih pred samomorom 11. aprila letos njun sin Adam razvil nezdrav odnos s klepetalnim robotom, ki ga je sprva uporabljal za šolo.
Ta naj bi mu je v zadnjem pogovoru na dan smrti pomagal, da je staršem ukradel vodko. Zagotovil naj bi mu tudi tehnično analizo zanke, ki jo je zvezal, ter potrdil, da bi se z njo človek lahko potencialno obesil. Nekaj ur kasneje so Adama našli mrtvega, potem ko je za samomor uporabil to metodo.
V tožbi sta starša poudarila, da tragedija ni bila napaka ali nepredvidljiv obroben primer, saj je ChatGPT deloval točno tako, kot je zasnovan.
"Nenehno je spodbujal in potrjeval vse, kar je Adam izrazil, vključno z najbolj škodljivimi in samodestruktivnimi mislimi, na način, ki se je zdel zelo oseben," sta poudarila in dodala izvlečke pogovorov, v katerih je ChatGPT domnevno rekel Adamu, da "ni nikomur dolžan preživeti", in mu ponudil pomoč pri pisanju poslovilnega pisma.
Starša tožita OpenAI in glavnega izvršnega direktorja tega podjetja s področja umetne inteligence Sama Altmana.
Zahtevata nedoločeno odškodnino, sodišče pa pozivata, naj določi varnostne ukrepe, vključno s samodejnim končanjem pogovorov, ki vključujejo samopoškodovanje, in starševskim nadzorom za mladoletne uporabnike.
OpenAI je v torek priznal, da njihov klepetalni robot dela napake v občutljivih primerih, in obljubil spremembe. V blogu, v katerem sicer ni omenilo tožbe, je podjetje poudarilo, da je ChatGPT usposobljen, da uporabnikom, ki izražajo samomorilske namere, priporoči, naj se za pomoč obrnejo na strokovnjake.
So pa pri podjetju po lastnih navedbah ugotovili, da se kljub temu in drugim varnostnim mehanizmom v občutljivih situacijah robot ni obnašal, kot bi se moral. Varnostni mehanizmi namreč delujejo najbolje v kratkih izmenjavah in lahko v dolgih interakcijah odpovejo, so izpostavili.
Pojasnili so še, da ChatGPT tudi prepozna kdaj je uporabnik mlajši od 18 let, da lahko uporabi zaščitne ukrepe. Po novem naj bi uvedli tudi starševski nadzor, raziskujejo pa tudi možnost, da bi mladoletne uporabnike neposredno povezali s kontaktno osebo za nujne primere.
Privoščite si nemoteno branje
Prijavljeni uporabniki Trafike24 z izpolnjenimi podatki profila berejo stran brez oglasov.
Še nimate Trafika24 računa? Registrirajte se
Prijavljeni uporabniki z izpolnjenimi podatki profila berejo vsebine brez oglasov.
- preverjen e-naslov
- preverjena tel. številka
- popolni osebni podatki
- prijava na e-novice
Ste pravkar uredili podatke? Osveži podatke