Kompanija upozorava na rizike po ekonomiju i bezbednost, dok stručnjaci ukazuju na izostanak jasnih podataka i preuveličavanje sposobnosti
Tehnološka kompanija Anthropic objavila je da njen napredni model veštačke inteligencije Claude Mythos može otkriti bezbednosne propuste u softveru efikasnije od ljudskih stručnjaka, upozoravajući pritom da bi upotreba ovog sistema u pogrešnim rukama mogla imati ozbiljne posledice po ekonomiju i nacionalnu bezbednost. Ovakve izjave izazvale su značajnu pažnju i skepticizam u industriji, jer kompanija nije objavila ključne metrike, uključujući stopu lažno pozitivnih nalaza, što otežava procenu stvarne vrednosti rešenja.
Prema navodima iz industrije, sličan narativ koriste i druge vodeće AI kompanije, često predstavljajući sopstvene proizvode kao potencijalne izvore apokaliptičnih rizika, ali i kao jedina rešenja za kontrolu tih rizika. Ističe se da ovakva komunikacija često preusmerava fokus javnosti sa aktuelnih problema, poput ekološkog uticaja i eksploatacije radne snage, na hipotetičke scenarije globalnih katastrofa.
Primeri iz prethodnih godina pokazuju kontinuitet ovog pristupa. Još 2019. godine u OpenAI je doneta odluka da se model GPT-2 privremeno ne objavljuje zbog navodnog rizika od zloupotrebe, ali je nakon nekoliko meseci ipak pušten u javnost. Sličnu retoriku danas koriste i drugi lideri iz sektora, upozoravajući da bi potencijalni rizici mogli biti uporedivi sa nuklearnim ratom ili globalnim pandemijama.
Stručnjaci u sektoru bezbednosti ističu da bez objavljenih podataka o efikasnosti, kao što su poređenja sa postojećim alatima i jasno definisane stope uspešnosti, nije moguće proceniti da li nova rešenja zaista predstavljaju napredak. Takođe, napominje se da kompanije često menjaju sopstvene principe i ograničenja – na primer, Google je ublažio pravila o razvoju AI za vojnu upotrebu, dok se OpenAI suočavao sa pravnim izazovima u promeni svog statusa.
U isto vreme, dok javna debata ostaje usmerena ka apokaliptičnim scenarijima, rastu realni problemi: AI sistemi greše u medicinskim dijagnozama, data centri povećavaju emisiju gasova, a deepfake tehnologija postaje ozbiljan izazov za kontrolu. Stručnjaci upozoravaju da preuveličavanje opasnosti služi i da učvrsti tržišnu poziciju kompanija, predstavljajući ih kao jedine koje mogu garantovati bezbednost.
Zaključuje se da je pitanje poverenja u kompanije koje istovremeno upozoravaju na rizike i nude rešenja ključno za dalji razvoj industrije i regulativu, dok istorija sektora pokazuje da očekivanja i najave često premašuju stvarne mogućnosti tehnologije.