83 % organizácií plánuje nasadiť agentic AI, no pripravenosť na jej bezpečné riadenie zaostáva. Problém už nie je v tom, či sa AI vo firme používa. Problém je, že sa často používa mimo dohľadu, mimo pravidiel a mimo bezpečnostných kontrol.
Ešte nedávno sa diskusia o umelej inteligencii točila okolo produktivity, automatizácie a obáv o pracovné miesta. V roku 2026 je praktickejšia otázka iná. Kto vo firme používa AI nástroje, aké dáta do nich vkladá a ktoré AI agenty už majú prístup k interným systémom.
To je podstata problému, ktorý sa dnes označuje ako Shadow AI. Ide o používanie AI nástrojov mimo schváleného rámca firmy. Niekedy je to zamestnanec, ktorý si otvorí verejný chatbot cez osobný účet a vloží doň interný dokument. Inokedy je to tím, ktorý si bez bezpečnostného posúdenia nasadí AI asistenta napojeného na cloudové úložisko, komunikačné nástroje alebo CRM.
Na prvý pohľad to vyzerá ako ďalšia verzia Shadow IT. V skutočnosti ide o vážnejší problém. Pri klasickom Shadow IT sa dáta presúvali mimo správu IT. Pri Shadow AI sa dáta nielen presúvajú, ale aj analyzujú, sumarizujú, prepisujú a používajú ako vstup do ďalšieho rozhodovania.
Keď problém nevznikne útokom, ale bežnou prácou
Jedným z najznámejších príkladov je incident v Samsungu z roku 2023. Zamestnanci vložili do ChatGPT citlivý zdrojový kód a interný obsah v snahe urýchliť riešenie pracovných úloh. Nešlo o prelomenie ochrany zvonku. Dáta odišli preto, že ich ľudia odoslali sami.
Následná reakcia firmy ukázala niečo podstatné. Samotný zákaz podobných nástrojov problém nerieši. Ak dopyt po AI vo firme existuje, ľudia si nájdu inú cestu.
Presne preto je Shadow AI pre firmy nepríjemná téma. Nezačína sa hackerským útokom. Začína sa snahou pracovať rýchlejšie, jednoduchšie a efektívnejšie.
Shadow AI v číslach
Rozsah problému dnes už nie je otázkou odhadov. Viaceré reporty z rokov 2025 a 2026 ukazujú, že AI sa vo firmách používa rýchlejšie, než stíhajú vznikať pravidlá, kontroly a reálny dohľad.
| Štatistika | Zdroj |
|---|---|
| 83 % organizácií plánuje nasadiť agentic AI, len 29 % sa cíti pripravených na jej zabezpečenie | Cisco State of AI Security 2026 |
| 47 % používateľov generatívnej AI pristupuje cez osobné účty mimo firemných kontrol | Netskope 2026 |
| Priemerná firma zaznamenáva 223 porušení dátových pravidiel mesačne v súvislosti s generatívnou AI | Netskope 2026 |
| Objem dát posielaných do GenAI aplikácií narástol za rok šesťnásobne | Netskope 2026 |
| 72 % firiem verí, že má plnú viditeľnosť do AI, no 65 % súčasne deteguje neoprávnené použitie | CultureAI 2026 |
| Breach spojený so shadow AI stojí v priemere o 670 000 USD viac | IBM Cost of Data Breach 2025 |
| Len 37 % organizácií má zavedené AI governance politiky | IBM 2025 |
| Do konca roku 2026 má 40 % podnikových aplikácií obsahovať AI agentov, pričom v roku 2025 to bolo menej ako 5 % | Gartner |
Jedno číslo stojí za osobitnú pozornosť. 72 % firiem si myslí, že má plnú viditeľnosť do používania AI. Súčasne 65 % deteguje neoprávnené použitie. To nie je governance. To je ilúzia kontroly.
Prečo je Shadow AI nebezpečnejšia než Shadow IT
Pri Shadow IT išlo často o neschválené SaaS služby, úložiská, doplnky do prehliadača alebo obchádzanie interných procesov. Riziko bolo jasné. Firma strácala prehľad o tom, kde sa nachádzajú jej dáta a kto k nim má prístup.
Pri Shadow AI je problém širší.
Po prvé, dáta sa neposielajú len na uloženie. Posielajú sa na spracovanie. Zamestnanec môže do AI vložiť kus zdrojového kódu, internú prezentáciu, zmluvu, finančný prehľad alebo osobné údaje klienta a očakávať, že mu nástroj pomôže s analýzou, sumarizáciou alebo návrhom odpovede.
Po druhé, tradičné ochranné mechanizmy to nemusia vidieť dostatočne presne. Bežný DLP nástroj bol navrhnutý najmä na súbory, prílohy a klasické prenosy dát. Nie na situáciu, keď niekto pošle citlivý obsah ako text do webového rozhrania AI služby.
Po tretie, bariéra vstupu je minimálna. Na používanie AI netreba nákup, projekt ani schvaľovanie. Stačí účet, prehliadač a pár minút času.
Výsledok je jednoduchý. Firma môže mať formálne pravidlá, no reálne správanie používateľov jej uniká.
Nový problém: AI agenti s prístupom do systémov
Klasické Shadow AI je problém používateľa. AI agenti z toho robia problém prevádzky a architektúry.
Rozdiel je zásadný. Chatbot, do ktorého človek vloží jeden prompt, je jednorazová interakcia. AI agent môže mať prístup k viacerým službám naraz, pracovať priebežne, spúšťať úlohy, čítať dáta, zapisovať výsledky a rozhodovať sa bez priameho zásahu človeka.
Ak si biznis tím bez bezpečnostného posúdenia nasadí agenta napojeného na Slack, e-mail, úložisko dokumentov a CRM, nevzniká len ďalší neschválený nástroj. Vzniká nový aktívny prvok vo firemnom prostredí, ktorý má oprávnenia, prístupové tokeny a schopnosť robiť akcie v mene používateľa alebo tímu.
Práve tu sa Shadow AI mení na vážny bezpečnostný problém. Nie preto, že AI je sama osebe škodlivá. Ale preto, že vznikajú nové dôveryhodné body s prístupom k dátam a procesom, ktoré nie sú riadené ako klasické systémy.
Čo cez Shadow AI reálne uniká
Najčastejšie nejde o exotické scenáre. Ide o bežnú kancelársku prax. Problém je v tom, že každý jednotlivý prípad vyzerá nevinne, ale v súčte vytvára systematický únik firemného know-how.
Finančné dáta a stratégia
Finančný riaditeľ potrebuje dvojstranové zhrnutie ročnej uzávierky pre vedenie. Vloží celý dokument do AI a za niekoľko sekúnd má výstup. Nikto v miestnosti nevie, že výsledky hospodárenia, marže a akvizičné plány práve prešli cez externú službu. Pre verejne obchodované firmy môže ísť o materiálnu neverejnú informáciu s regulačnými dôsledkami.
Zdrojový kód a technická dokumentácia
Vývojár potrebuje nájsť chybu v 200 riadkoch kódu. Vloží ho do AI vrátane komentárov, API kľúčov a konfiguračných údajov. Kód opustí firemné prostredie a firma stráca praktickú kontrolu nad tým, ako bude ďalej spracovaný, uchovaný a zmluvne ošetrený.
Osobné údaje klientov a zamestnancov
Zákaznícky servis vloží celý profil klienta do AI, aby získal kontext pre odpoveď na reklamáciu. Každé takéto vloženie môže znamenať porušenie GDPR. Bez právneho základu, bez zmluvy o spracovaní údajov a bez vedomia organizácie.
Právne dokumenty
Právne oddelenie sumarizuje zmluvu cez AI, HR pripravuje citlivú internú komunikáciu. Dôvernosť právnej komunikácie a ochrana obchodného tajomstva sa po odoslaní obsahu tretej strane bez zmluvného rámca výrazne oslabujú.
Zdravotné a iné citlivé záznamy
V zdravotníctve sa do AI môžu dostávať diagnostické záznamy, anamnézy a liečebné plány. Ak sa to deje cez neschválený nástroj, problémom nie je len regulácia, ale aj kvalita výstupu a riziko nesprávnej interpretácie.
Prístupové údaje a konfigurácia
API kľúče, tokeny, heslá a interné URL adresy sa objavujú v promptoch častejšie, než by si firmy chceli pripustiť. Stačí, aby vývojár skopíroval konfiguračný súbor do AI na analýzu, a credentials sú mimo firemnú infraštruktúru.
Práve preto sú pre bezpečnostné tímy AI prompty problém. V jednom textovom vstupe sa môžu stretnúť osobné údaje, duševné vlastníctvo, zdrojový kód aj prihlasovacie údaje.
Prečo firmy často žijú v ilúzii kontroly
Najväčší problém býva rozdiel medzi tým, čo si firma myslí, a tým, čo sa naozaj deje.
Vedenie organizácie môže mať pocit, že AI je pod kontrolou, pretože existuje smernica, zamestnanci dostali schválený nástroj a IT tím eviduje oficiálne riešenia. Lenže používatelia často siahajú aj po ďalších službách, ktoré sa do tejto predstavy nezmestia. Dôvod je jednoduchý. Chcú rýchlejší výsledok, lepšie rozhranie alebo funkciu, ktorú interný nástroj nemá.
To je ten istý mechanizmus, aký firmy zažili pri Shadow IT. Rozdiel je v tom, že pri AI sú dôsledky rýchlejšie a citlivejšie. Zamestnanec už neobchádza len nákupný proces. Môže obchádzať bezpečnostné, právne aj prevádzkové pravidlá jedným promptom.
Regulácia tento problém ešte zviditeľní
Shadow AI nie je len technický problém. Je to aj otázka súladu s pravidlami.
Podľa aktuálnej časovej osi EÚ sa väčšina pravidiel AI Actu začne uplatňovať od 2. augusta 2026. V tom istom období sa začnú uplatňovať aj pravidlá pre vysokorizikové AI systémy z prílohy III a pravidlá transparentnosti. Pre AI systémy zabudované do regulovaných produktov platí dlhšie prechodné obdobie do 2. augusta 2027.
Zároveň je dôležité dodať, že pri časti high-risk pravidiel sa v EÚ diskutovalo aj o možných posunoch termínov. To však neznamená, že firmy majú čas čakať.
Aj keby sa termíny AI Actu posunuli, GDPR povinnosti platia už dnes. A väčšina shadow AI incidentov má presne tento rozmer. Zamestnanec odošle osobné údaje do externej AI služby bez právneho základu, bez zmluvy o spracovaní údajov a bez vedomia organizácie. To nie je problém budúcnosti. To je problém okamžite.
Z pohľadu compliance vytvára Shadow AI toxickú kombináciu. Firma nevie preukázať, aké AI systémy používa. Nevie doložiť právny základ spracovania osobných údajov. A nemá audit trail ani dostatočné logovanie. Nie je to budúci problém. Je to aktuálny stav vo veľkej časti organizácií.
Čo by mala firma spraviť ako prvé
1. Zistiť, čo sa už používa
Bez inventára nie je možné riadenie. Firma potrebuje vedieť, aké AI nástroje sa používajú oficiálne a aké neoficiálne. To zahŕňa webové služby, doplnky, integrované AI funkcie v SaaS platformách aj samostatných agentov.
2. Rozlíšiť nástroje podľa rizika
Nie všetky AI nástroje predstavujú rovnaký problém. Niektoré môžu byť akceptovateľné pri práci s verejnými alebo nízkocitlivými dátami. Iné by mali byť povolené len za jasných podmienok. A niektoré by mali byť zakázané úplne.
3. Zaviesť pravidlá pre dáta, nie len pre názvy nástrojov
Samotný zoznam povolených a zakázaných služieb nestačí. Dôležitejšie je určiť, aké typy dát sa do AI vôbec nesmú odosielať, ktoré sa môžu spracúvať len v schválenom prostredí a ktoré sú z pohľadu firmy akceptovateľné.
4. Dať ľuďom použiteľnú firemnú alternatívu
Ak firma neposkytne funkčný a pohodlný nástroj, používatelia si nájdu vlastný. Pri Shadow AI to platí dvojnásobne. Cieľom nie je vytvoriť prostredie, v ktorom sa AI nesmie používať. Cieľom je dostať jej používanie pod kontrolu.
5. Nasadiť DLP kontroly špecifické pre AI
Tradičný DLP už nestačí. Firmy potrebujú nástroje, ktoré rozumejú AI špecifickým tokom dát. Monitorovanie promptov, detekcia citlivých údajov v textových vstupoch a upozornenia v reálnom čase budú čoraz dôležitejšie.
6. Začať riešiť aj AI agentov
Mnohé organizácie sa dnes zameriavajú len na chatboty a prompty. To už nestačí. Rovnakú pozornosť si zaslúžia agenti, rozšírenia, automatizácie a nové SaaS funkcie, ktoré získavajú prístup k dátam a procesom. Každý AI agent by mal mať priradeného vlastníka, definované oprávnenia, expiráciu tokenov a pravidelnú revíziu prístupu.
Manažérsky checklist: máte Shadow AI pod kontrolou?
Ak nemáte odpoveď áno na všetkých sedem bodov, riziko Shadow AI je vo firme vysoké.
- Máte inventár AI nástrojov. Existuje aktuálny zoznam AI služieb používaných vo firme, založený na monitoringu siete a financií, nie len na domnienkach.
- Máte AI politiku pre dáta. Zamestnanci vedia presne, ktoré typy dát nesmú vkladať do verejných AI modelov a kde je hranica medzi povoleným a zakázaným.
- Máte schválené alternatívy. Firma ponúka enterprise AI nástroje, ktoré sú funkčne porovnateľné s verejnými službami.
- Máte AI-aware DLP. Monitorujete AI špecifické toky dát, teda prompty, textové vstupy a uploady do AI služieb, nie len klasické súbory a prílohy.
- Máte inventár AI agentov. Viete, koľko autonómnych AI agentov beží v prostredí, aké majú oprávnenia, kto je ich vlastník a kedy boli naposledy revidované.
- Máte SSO pre AI nástroje. Kľúčové AI aplikácie sú integrované do centrálnej správy identít, aby pri odchode zamestnanca automaticky stratil prístup.
- Máte rýchlu schvaľovaciu cestu. Existuje proces schválenia nového AI nástroja v rozumnom čase, aby sa predišlo obchádzaniu cez osobné účty a neschválené služby.
Záver
Shadow AI nie je hypotetická hrozba ani problém budúcnosti. Je to praktická bezpečnostná téma roku 2026. Firmy dnes už neriešia len to, či zamestnanci používajú verejné AI nástroje. Riešia aj to, aké dáta do nich odchádzajú, aké rozhodnutia cez ne vznikajú a akí AI agenti už bežia v prostredí bez jasného dohľadu.
Najväčšie riziko nespočíva v samotnej existencii AI. Riziko je v tom, že sa AI používa rýchlejšie, než firmy stíhajú zavádzať pravidlá, technické kontroly a zodpovednosť.
Ak dnes vo firme neviete, koľko AI nástrojov sa používa, cez aké účty sú dostupné a ktoré systémy už majú napojené AI funkcie alebo agentov, zistite to. Skôr, ako to zistí regulátor, audítor alebo útočník.