Formiranje radne grupe i potencijalna federalna provera AI sistema pre javnog puštanja u rad razmatraju se kao odgovor na rastuće izazove
Bela kuća razmatra mogućnost uvođenja strožih mera regulacije za nove AI modele, s ciljem da unapredi bezbednosne standarde i kontrolu pre nego što ovakvi sistemi postanu dostupni javnosti. Prema navodima industrijskih izvora, u razmatranju je formiranje nove radne grupe na saveznom nivou koja bi imala ovlašćenja da nadzire razvoj i primenu veštačke inteligencije.
Prema trenutnim predlozima, ova radna grupa bi mogla imati zadatak da vrši federalnu reviziju novih AI modela pre nego što budu javno lansirani. Ovakav pristup mogao bi biti sličan modelu višeslojnog nadzora koji je već uspostavljen u Velikoj Britaniji, gde se više nivoa regulatornih tela angažuje kako bi se osiguralo da AI sistemi ispunjavaju zahteve bezbednosti pre izlaska na tržište. Ipak, i britanski model trenutno prolazi kroz određene izazove u implementaciji.
Iako još nije doneta konačna odluka o načinu sprovođenja ovih mera u Sjedinjenim Američkim Državama, razgovori su pokrenuti u trenutku kada AI tehnologije beleže ubrzan razvoj i širu primenu u različitim sektorima. Prepoznata je potreba za jačom kontrolom, posebno u pogledu mogućih rizika koje napredni AI modeli mogu doneti u pogledu dezinformacija, sigurnosti i privatnosti korisnika.
Ovakva inicijativa bi mogla značajno uticati na tehnološku industriju i kompanije koje razvijaju AI rešenja, jer bi implementacija dodatnih slojeva provere zahtevala usklađivanje razvojnih procesa sa novim regulatornim zahtevima. Dalji koraci američke administracije u vezi sa regulacijom AI biće pažljivo praćeni unutar industrije i među regulatornim telima širom sveta.









