Nova funkcija omogućava automatsko izvršavanje bezbednih komandi i smanjuje mogućnost masovnih brisanja fajlova
Anthropic, poznata AI kompanija, najavila je uvođenje ‘auto mode’ funkcije za svoj Claude Code alat, s ciljem da poveća bezbednost prilikom automatskog izvršavanja kodova i komandnih linija. Ova funkcija je predstavljena krajem marta 2026. godine, a korisnicima na timskom planu dostupna je već sada, dok se šira dostupnost kroz Enterprise i API planove očekuje u narednim danima.
‘Auto mode’ predstavlja sredinu između dosadašnjeg režima rada, gde je Claude zahtevao eksplicitnu potvrdu za svaku promenu fajlova i izvršavanje bash komandi, i rizika koji su dolazili sa korišćenjem komande koja preskače sve bezbednosne provere. U novom režimu, specijalni klasifikator procenjuje koje radnje su sigurne i automatizovano ih odobrava, dok potencijalno rizične akcije blokira ili traži drugačiji pristup od AI asistenta.
Cilj ove inovacije je da se smanji mogućnost grešaka koje mogu izazvati masovno brisanje podataka, curenje osetljivih informacija ili pokretanje malicioznog koda. Anthropic ističe da nijedan sistem nije potpuno nepogrešiv, te korisnike upozorava da postoji mogućnost da klasifikator u određenim slučajevima, poput nejasnih korisničkih instrukcija ili nedovoljnog konteksta o okruženju, ipak dozvoli rizične radnje.
Kompanija nije imenovala konkretan incident kao povod za razvoj ‘auto mode’ funkcije, ali se ovaj potez poklapa sa nedavnom višesatnom AWS infrastrukturnom havarijom, u kojoj je, prema industrijskim izvorima, jedan Amazonov AI alat greškom izbrisao čitavo hosting okruženje zbog preširokih korisničkih privilegija.
Trenutno, ‘auto mode’ mogu isprobati korisnici timskih planova, dok će Enterprise i API korisnici ovu opciju dobiti uskoro. Anthropic nastavlja da razvija Claude Code s fokusom na balans između autonomije AI sistema i sigurnosti korisničkih podataka i infrastrukture.