Interni dokumenti i poslovne strategije sve češće završavaju na eksternim AI serverima, stručnjaci iz PULSEC-a upozoravaju na rastući izazov digitalne transformacije
Sve veći broj zaposlenih u kompanijama samoinicijativno koristi alate zasnovane na veštačkoj inteligenciji u svakodnevnom poslovanju, što dovodi do toga da poverljivi podaci napuštaju kontrolisano okruženje firme. Prema upozorenju stručnjaka iz PULSEC-a, svaki put kada se interni dokument, deo izvornog koda ili poslovna strategija pošalje u AI alat, kompanija gubi uvid u to gde se podaci nalaze, kako se obrađuju i ko može da im pristupi.
Ovaj fenomen, poznat kao shadow AI, prepoznat je kao jedan od najbrže rastućih bezbednosnih izazova u modernom poslovanju. Podaci koji se učitaju u alate poput ChatGPT, Claude ili Gemini, skladište se na serverima provajdera u različitim jurisdikcijama, što dodatno komplikuje kontrolu i zaštitu informacija. Analize pokazuju da čak i kada korisnici isključe opcije za treniranje AI modela ili aktiviraju zaštitu privatnosti, provajderi i dalje mogu zadržati određene podatke ili njihove metapodatke.
Stručnjaci napominju da mnogi zaposleni, u želji da ubrzaju svakodnevne radne zadatke, nesvesno izlažu kompaniju riziku od curenja informacija. Internet ‘pamti’ – podaci uneti u AI alat ne nestaju, već se skladište i obrađuju, a otvaranje ‘incognito’ prozora ne pruža dodatnu zaštitu.
PULSEC preporučuje kompanijama niz mera za smanjenje rizika: jasno definisanje politike upotrebe AI alata sa zabranom unošenja poverljivih informacija, klasifikaciju podataka na javne, interne i poverljive (pri čemu je za poverljive podatke korišćenje AI strogo zabranjeno), uvođenje obavezne ljudske verifikacije za sadržaj generisan AI alatima, redovne edukacije zaposlenih o opasnostima shadow AI-a i primenu principa najmanjih privilegija za pristup naprednim alatima.
Potpuna zabrana AI alata često nije efikasna, jer zaposleni i dalje pokušavaju da koriste tehnologiju koja im olakšava rad. Efektivniji pristup je uspostavljanje jasnih pravila, edukacija i ograničavanje upotrebe na odobrene alate. Za kompanije sa najvišim bezbednosnim zahtevima preporučuje se lokalno pokretanje AI modela ili korišćenje izolovane cloud infrastrukture, čime se eliminiše slanje osetljivih podataka eksternim servisima.
Shadow AI postaje ključni izazov za organizacije, jer pretnja ne dolazi spolja, već iznutra – kroz svakodnevnu praksu zaposlenih. Efikasna zaštita zahteva kombinaciju tehničkih kontrola, striktnih pravila, redovne edukacije i razvoja kulture odgovornog upravljanja podacima.
Source: https://bif.rs/2026/04/shadow-ai-kao-bezbednosni-izazov-savremenih-kompanija/









