Biz Srbija

Anthropic tvrdi da model Claude Mythos otkriva propuste bolje od ljudi, bez objavljenih metrika

Kompanija upozorava na rizike po ekonomiju i bezbednost, dok stručnjaci ukazuju na izostanak jasnih podataka i preuveličavanje sposobnosti

Foto Izvor: Pixabay / Geralt

Kompanija upozorava na rizike po ekonomiju i bezbednost, dok stručnjaci ukazuju na izostanak jasnih podataka i preuveličavanje sposobnosti

Tehnološka kompanija Anthropic objavila je da njen napredni model veštačke inteligencije Claude Mythos može otkriti bezbednosne propuste u softveru efikasnije od ljudskih stručnjaka, upozoravajući pritom da bi upotreba ovog sistema u pogrešnim rukama mogla imati ozbiljne posledice po ekonomiju i nacionalnu bezbednost. Ovakve izjave izazvale su značajnu pažnju i skepticizam u industriji, jer kompanija nije objavila ključne metrike, uključujući stopu lažno pozitivnih nalaza, što otežava procenu stvarne vrednosti rešenja.

Prema navodima iz industrije, sličan narativ koriste i druge vodeće AI kompanije, često predstavljajući sopstvene proizvode kao potencijalne izvore apokaliptičnih rizika, ali i kao jedina rešenja za kontrolu tih rizika. Ističe se da ovakva komunikacija često preusmerava fokus javnosti sa aktuelnih problema, poput ekološkog uticaja i eksploatacije radne snage, na hipotetičke scenarije globalnih katastrofa.

Primeri iz prethodnih godina pokazuju kontinuitet ovog pristupa. Još 2019. godine u OpenAI je doneta odluka da se model GPT-2 privremeno ne objavljuje zbog navodnog rizika od zloupotrebe, ali je nakon nekoliko meseci ipak pušten u javnost. Sličnu retoriku danas koriste i drugi lideri iz sektora, upozoravajući da bi potencijalni rizici mogli biti uporedivi sa nuklearnim ratom ili globalnim pandemijama.

Stručnjaci u sektoru bezbednosti ističu da bez objavljenih podataka o efikasnosti, kao što su poređenja sa postojećim alatima i jasno definisane stope uspešnosti, nije moguće proceniti da li nova rešenja zaista predstavljaju napredak. Takođe, napominje se da kompanije često menjaju sopstvene principe i ograničenja – na primer, Google je ublažio pravila o razvoju AI za vojnu upotrebu, dok se OpenAI suočavao sa pravnim izazovima u promeni svog statusa.

U isto vreme, dok javna debata ostaje usmerena ka apokaliptičnim scenarijima, rastu realni problemi: AI sistemi greše u medicinskim dijagnozama, data centri povećavaju emisiju gasova, a deepfake tehnologija postaje ozbiljan izazov za kontrolu. Stručnjaci upozoravaju da preuveličavanje opasnosti služi i da učvrsti tržišnu poziciju kompanija, predstavljajući ih kao jedine koje mogu garantovati bezbednost.

Zaključuje se da je pitanje poverenja u kompanije koje istovremeno upozoravaju na rizike i nude rešenja ključno za dalji razvoj industrije i regulativu, dok istorija sektora pokazuje da očekivanja i najave često premašuju stvarne mogućnosti tehnologije.

Leave a Reply

Your email address will not be published. Required fields are marked *

Možda će vas interesovati

Biz Srbija

U maju četiri neradna dana, a za rad na praznik minimalno 110 odsto veća dnevnica, bez zakonskih kazni za poslodavce

Biz Srbija

Ulazak Aman-a u vlasničku strukturu DIS-a menja konkurentsku sliku maloprodajnog sektora Srbije, detalji transakcije još nisu objavljeni

Biz Srbija

Nova mera omogućava zaposlenima u Italiji plaćeno odsustvo radi brige o bolesnim životinjama, što ima ekonomske i socijalne implikacije na radna prava i tržište...

Hi-Tech

Kompletan vodič za praćenje muškog i ženskog NCAA turnira 2026. uz detalje o platformama i terminima

Copyright © 2026 RED MEDIA GROUP DOO

Exit mobile version