Connect with us

Hi, what are you looking for?

Biz Srbija

Anthropic tvrdi da model Claude Mythos otkriva propuste bolje od ljudi, bez objavljenih metrika

Kompanija upozorava na rizike po ekonomiju i bezbednost, dok stručnjaci ukazuju na izostanak jasnih podataka i preuveličavanje sposobnosti

Foto Izvor: Pixabay / Geralt

Kompanija upozorava na rizike po ekonomiju i bezbednost, dok stručnjaci ukazuju na izostanak jasnih podataka i preuveličavanje sposobnosti

Tehnološka kompanija Anthropic objavila je da njen napredni model veštačke inteligencije Claude Mythos može otkriti bezbednosne propuste u softveru efikasnije od ljudskih stručnjaka, upozoravajući pritom da bi upotreba ovog sistema u pogrešnim rukama mogla imati ozbiljne posledice po ekonomiju i nacionalnu bezbednost. Ovakve izjave izazvale su značajnu pažnju i skepticizam u industriji, jer kompanija nije objavila ključne metrike, uključujući stopu lažno pozitivnih nalaza, što otežava procenu stvarne vrednosti rešenja.

Prema navodima iz industrije, sličan narativ koriste i druge vodeće AI kompanije, često predstavljajući sopstvene proizvode kao potencijalne izvore apokaliptičnih rizika, ali i kao jedina rešenja za kontrolu tih rizika. Ističe se da ovakva komunikacija često preusmerava fokus javnosti sa aktuelnih problema, poput ekološkog uticaja i eksploatacije radne snage, na hipotetičke scenarije globalnih katastrofa.

Primeri iz prethodnih godina pokazuju kontinuitet ovog pristupa. Još 2019. godine u OpenAI je doneta odluka da se model GPT-2 privremeno ne objavljuje zbog navodnog rizika od zloupotrebe, ali je nakon nekoliko meseci ipak pušten u javnost. Sličnu retoriku danas koriste i drugi lideri iz sektora, upozoravajući da bi potencijalni rizici mogli biti uporedivi sa nuklearnim ratom ili globalnim pandemijama.

Stručnjaci u sektoru bezbednosti ističu da bez objavljenih podataka o efikasnosti, kao što su poređenja sa postojećim alatima i jasno definisane stope uspešnosti, nije moguće proceniti da li nova rešenja zaista predstavljaju napredak. Takođe, napominje se da kompanije često menjaju sopstvene principe i ograničenja – na primer, Google je ublažio pravila o razvoju AI za vojnu upotrebu, dok se OpenAI suočavao sa pravnim izazovima u promeni svog statusa.

U isto vreme, dok javna debata ostaje usmerena ka apokaliptičnim scenarijima, rastu realni problemi: AI sistemi greše u medicinskim dijagnozama, data centri povećavaju emisiju gasova, a deepfake tehnologija postaje ozbiljan izazov za kontrolu. Stručnjaci upozoravaju da preuveličavanje opasnosti služi i da učvrsti tržišnu poziciju kompanija, predstavljajući ih kao jedine koje mogu garantovati bezbednost.

Zaključuje se da je pitanje poverenja u kompanije koje istovremeno upozoravaju na rizike i nude rešenja ključno za dalji razvoj industrije i regulativu, dok istorija sektora pokazuje da očekivanja i najave često premašuju stvarne mogućnosti tehnologije.

Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

Možda će vas interesovati

Biz Srbija

U maju četiri neradna dana, a za rad na praznik minimalno 110 odsto veća dnevnica, bez zakonskih kazni za poslodavce

Biz Srbija

Ulazak Aman-a u vlasničku strukturu DIS-a menja konkurentsku sliku maloprodajnog sektora Srbije, detalji transakcije još nisu objavljeni

Biz Srbija

Nova mera omogućava zaposlenima u Italiji plaćeno odsustvo radi brige o bolesnim životinjama, što ima ekonomske i socijalne implikacije na radna prava i tržište...

Hi-Tech

Kompletan vodič za praćenje muškog i ženskog NCAA turnira 2026. uz detalje o platformama i terminima