Kompanija sa podrškom Amazona i Google-a proverava sigurnosne protokole nakon što je model, namenjen ograničenoj upotrebi, kompromitovan od strane neodobrenih korisnika
Tehnološka kompanija Anthropic, poznata po razvoju naprednih veštačkih inteligencija, započela je detaljnu istragu nakon što su pojedinci izvan dozvoljenog korisničkog okruženja uspeli da pristupe njenom ograničenom Mythos AI modelu. Incident je otkriven u aprilu 2026. godine, a kompanija još uvek nije objavila pun obim problema, niti precizirala da li je došlo do zloupotrebe tehničkih propusta, kompromitovanih naloga ili internih zloupotreba.
Model Mythos, koji nije javno dostupan i koristi se isključivo u kontrolisanim uslovima, posebno je značajan zbog svojih mogućnosti u oblasti sajber bezbednosti, što ovaj incident čini posebno relevantnim za industriju. Prema dostupnim informacijama, neovlašćeni korisnici uspeli su da interaguju sa sistemom, čime su potencijalno narušene interne bezbednosne politike kompanije.
Anthropic, koja ima podršku vodećih tehnoloških investitora kao što su Amazon i Google, izgradila je reputaciju na principima bezbednosti i odgovorne primene veštačke inteligencije. Svi modeli kompanije razvijaju se uz višeslojne restrikcije i protokole testiranja kako bi se ograničila mogućnost zloupotrebe.
Kompanija nije potvrdila da li je do incidenta došlo zbog tehničke ranjivosti, greške u upravljanju pristupom, nedovoljnog nadzora ili propusta vezanih za integraciju sa trećim stranama. Stručnjaci za sajber bezbednost ističu da su ovakvi incidenti sa ograničenim AI sistemima najčešće posledica slabosti u upravljanju privilegijama i monitoringu.
Ograničeni modeli veštačke inteligencije, poput Mythos-a, često privlače pažnju istraživača i konkurentskih kompanija koje žele da testiraju mogućnosti ili steknu konkurentsku prednost. Zbog toga su ovakvi sistemi redovno meta pokušaja neautorizovanog pristupa, što dodatno naglašava potrebu za snažnim bezbednosnim merama.
Anthropic nastavlja istragu i obećava da će, po završetku internog procesa, objaviti nalaze i eventualne promene u pristupu bezbednosti svojih modela, sa ciljem smanjenja rizika od sličnih incidenata u budućnosti.
Source: https://www.ibtimes.com/anthropic-investigates-unauthorized-access-its-new-mythos-ai-model-3801748









