Optužbe protiv OpenAI fokusiraju se na potencijalne rizike AI sistema u medicinskom savetovanju, bez zvaničnih izjava kompanije
OpenAI, poznat po razvoju ChatGPT jezičkog modela, suočava se sa tužbom koju su podneli Leila Turner-Scott i Angus Scott. Oni tvrde da je njihov sin Sam Nelson preminuo nakon što je pratio medicinski savet koji mu je dao model GPT-4o. Prema navodima iz tužbe, Sam je postupio u skladu sa savetima koje je dobio putem ChatGPT-a, što je rezultiralo slučajnim predoziranjem.
U dokumentaciji pred sudom, porodica navodi da je OpenAI razvio i distribuirao “neispravan proizvod” koji je, prema njihovim rečima, direktno uticao na tragičan ishod. Ovo nije prvi put da se OpenAI suočava sa sličnim optužbama; ranije su postojale tužbe u vezi sa upotrebom AI sistema u osetljivim situacijama, uključujući zloupotrebe ili pogrešne informacije koje mogu imati ozbiljne posledice po korisnike.
Tužba otvara pitanje odgovornosti AI kompanija kada njihovi modeli daju preporuke iz domena medicine, posebno jer su Large Language Model (LLM) sistemi, poput GPT-4o, trenirani na velikom skupu podataka sa interneta, među kojima se mogu naći i netačne ili neproverene informacije. Iako kompanije često upozoravaju korisnike da AI alati nisu zamena za stručni medicinski savet, slučajevi poput ovog ukazuju na potrebu za dodatnim merama opreza i jasnijim smernicama za korišćenje AI tehnologije u osetljivim oblastima.
Do trenutka objavljivanja vesti, OpenAI nije izdao zvaničnu izjavu povodom aktuelne tužbe. Ovaj slučaj bi mogao imati šire posledice na regulativu i način na koji se AI alati koriste u svakodnevnom životu, naročito u oblastima gde pogrešan savet može imati ozbiljne posledice. Stručnjaci iz industrije ističu da je neophodno razvijati dodatne bezbednosne mehanizme i edukovati korisnike o ograničenjima veštačke inteligencije, posebno u kontekstu samostalnog donošenja zdravstvenih odluka.