Krivična istraga zbog upotrebe generativne AI u slučaju studenta sa Florida State University otvara nova regulatorna pitanja
Američka kompanija OpenAI, poznata po razvoju generativne AI platforme ChatGPT, našla se pod krivičnom istragom vlasti Floride zbog načina na koji je njen alat korišćen u slučaju povezanom sa studentom sa Florida State University. Istragu je pokrenuo državni tužilac Floride James Uthmeier, a fokus je na tome da li su odgovori i interakcije ChatGPT alata direktno doprineli potencijalno štetnim ishodima u konkretnom univerzitetskom slučaju, što je jedan od prvih primera krivične istrage vezane za veštačku inteligenciju u američkom obrazovnom sektoru.
Prema zvaničnim informacijama, istraga se nalazi u ranoj fazi, a nadležni organi nisu izneli detalje o mogućim optužbama ili specifičnim pravnim osnovama koje se razmatraju. Ovaj potez dolazi u trenutku kada regulatorna tela širom Sjedinjenih Država pojačavaju nadzor nad kompanijama koje razvijaju i plasiraju AI rešenja, naročito u oblastima obrazovanja, rada sa maloletnicima i mentalnog zdravlja.
OpenAI je prethodno saopštio da kontinuirano radi na unapređenju sigurnosnih mehanizama u svojim modelima, uključujući uvođenje naprednih filtera i politika korišćenja sa ciljem smanjenja rizika od potencijalno štetnih odgovora i zloupotreba. Uprkos tome, rastući broj regulatornih i pravnih izazova ukazuje na ozbiljne dileme u vezi sa odgovornošću AI kompanija i potrebom za jasnijim standardima i procedurama.
Pravni eksperti naglašavaju da su krivične istrage ovog tipa još uvek retkost u američkom pravosuđu i da će slučaj iz Floride potencijalno postaviti presedan u pogledu odgovornosti programera i korisnika generativnih AI sistema. Do sada nisu objavljeni detalji incidenta na Florida State University, ali slučaj je skrenuo pažnju na šire pitanje upotrebe AI alata u obrazovnim institucijama i spremnost tih institucija da upravljaju mogućim rizicima.
Povećana regulacija u SAD dolazi u trenutku kada je primena generativnih AI alata poput ChatGPT-a u školama i univerzitetima u ekspanziji, što dodatno ističe potrebu za efikasnim mehanizmima kontrole i zaštite korisnika. Federalne agencije takođe analiziraju rizike upotrebe AI, posebno u oblastima koje uključuju maloletnike i osetljive grupe korisnika, dok pravni okvir još uvek traži odgovarajuće rešenje za nove tehnološke izazove.