Shadow AI a AI agenti

Shadow AI a AI agenti: nové bezpečnostné riziko pre firmy v roku 2026

83 % organizácií plánuje nasadiť agentic AI, no pripravenosť na jej bezpečné riadenie zaostáva. Problém už nie je v tom, či sa AI vo firme používa. Problém je, že sa často používa mimo dohľadu, mimo pravidiel a mimo bezpečnostných kontrol.

Ešte nedávno sa diskusia o umelej inteligencii točila okolo produktivity, automatizácie a obáv o pracovné miesta. V roku 2026 je praktickejšia otázka iná. Kto vo firme používa AI nástroje, aké dáta do nich vkladá a ktoré AI agenty už majú prístup k interným systémom.

To je podstata problému, ktorý sa dnes označuje ako Shadow AI. Ide o používanie AI nástrojov mimo schváleného rámca firmy. Niekedy je to zamestnanec, ktorý si otvorí verejný chatbot cez osobný účet a vloží doň interný dokument. Inokedy je to tím, ktorý si bez bezpečnostného posúdenia nasadí AI asistenta napojeného na cloudové úložisko, komunikačné nástroje alebo CRM.

Na prvý pohľad to vyzerá ako ďalšia verzia Shadow IT. V skutočnosti ide o vážnejší problém. Pri klasickom Shadow IT sa dáta presúvali mimo správu IT. Pri Shadow AI sa dáta nielen presúvajú, ale aj analyzujú, sumarizujú, prepisujú a používajú ako vstup do ďalšieho rozhodovania.

Keď problém nevznikne útokom, ale bežnou prácou

Jedným z najznámejších príkladov je incident v Samsungu z roku 2023. Zamestnanci vložili do ChatGPT citlivý zdrojový kód a interný obsah v snahe urýchliť riešenie pracovných úloh. Nešlo o prelomenie ochrany zvonku. Dáta odišli preto, že ich ľudia odoslali sami.

Následná reakcia firmy ukázala niečo podstatné. Samotný zákaz podobných nástrojov problém nerieši. Ak dopyt po AI vo firme existuje, ľudia si nájdu inú cestu.

Presne preto je Shadow AI pre firmy nepríjemná téma. Nezačína sa hackerským útokom. Začína sa snahou pracovať rýchlejšie, jednoduchšie a efektívnejšie.

Shadow AI v číslach

Rozsah problému dnes už nie je otázkou odhadov. Viaceré reporty z rokov 2025 a 2026 ukazujú, že AI sa vo firmách používa rýchlejšie, než stíhajú vznikať pravidlá, kontroly a reálny dohľad.

ŠtatistikaZdroj
83 % organizácií plánuje nasadiť agentic AI, len 29 % sa cíti pripravených na jej zabezpečenieCisco State of AI Security 2026
47 % používateľov generatívnej AI pristupuje cez osobné účty mimo firemných kontrolNetskope 2026
Priemerná firma zaznamenáva 223 porušení dátových pravidiel mesačne v súvislosti s generatívnou AINetskope 2026
Objem dát posielaných do GenAI aplikácií narástol za rok šesťnásobneNetskope 2026
72 % firiem verí, že má plnú viditeľnosť do AI, no 65 % súčasne deteguje neoprávnené použitieCultureAI 2026
Breach spojený so shadow AI stojí v priemere o 670 000 USD viacIBM Cost of Data Breach 2025
Len 37 % organizácií má zavedené AI governance politikyIBM 2025
Do konca roku 2026 má 40 % podnikových aplikácií obsahovať AI agentov, pričom v roku 2025 to bolo menej ako 5 %Gartner

Jedno číslo stojí za osobitnú pozornosť. 72 % firiem si myslí, že má plnú viditeľnosť do používania AI. Súčasne 65 % deteguje neoprávnené použitie. To nie je governance. To je ilúzia kontroly.

Prečo je Shadow AI nebezpečnejšia než Shadow IT

Pri Shadow IT išlo často o neschválené SaaS služby, úložiská, doplnky do prehliadača alebo obchádzanie interných procesov. Riziko bolo jasné. Firma strácala prehľad o tom, kde sa nachádzajú jej dáta a kto k nim má prístup.

Pri Shadow AI je problém širší.

Po prvé, dáta sa neposielajú len na uloženie. Posielajú sa na spracovanie. Zamestnanec môže do AI vložiť kus zdrojového kódu, internú prezentáciu, zmluvu, finančný prehľad alebo osobné údaje klienta a očakávať, že mu nástroj pomôže s analýzou, sumarizáciou alebo návrhom odpovede.

Po druhé, tradičné ochranné mechanizmy to nemusia vidieť dostatočne presne. Bežný DLP nástroj bol navrhnutý najmä na súbory, prílohy a klasické prenosy dát. Nie na situáciu, keď niekto pošle citlivý obsah ako text do webového rozhrania AI služby.

Po tretie, bariéra vstupu je minimálna. Na používanie AI netreba nákup, projekt ani schvaľovanie. Stačí účet, prehliadač a pár minút času.

Výsledok je jednoduchý. Firma môže mať formálne pravidlá, no reálne správanie používateľov jej uniká.

Nový problém: AI agenti s prístupom do systémov

Klasické Shadow AI je problém používateľa. AI agenti z toho robia problém prevádzky a architektúry.

Rozdiel je zásadný. Chatbot, do ktorého človek vloží jeden prompt, je jednorazová interakcia. AI agent môže mať prístup k viacerým službám naraz, pracovať priebežne, spúšťať úlohy, čítať dáta, zapisovať výsledky a rozhodovať sa bez priameho zásahu človeka.

Ak si biznis tím bez bezpečnostného posúdenia nasadí agenta napojeného na Slack, e-mail, úložisko dokumentov a CRM, nevzniká len ďalší neschválený nástroj. Vzniká nový aktívny prvok vo firemnom prostredí, ktorý má oprávnenia, prístupové tokeny a schopnosť robiť akcie v mene používateľa alebo tímu.

Práve tu sa Shadow AI mení na vážny bezpečnostný problém. Nie preto, že AI je sama osebe škodlivá. Ale preto, že vznikajú nové dôveryhodné body s prístupom k dátam a procesom, ktoré nie sú riadené ako klasické systémy.

Čo cez Shadow AI reálne uniká

Najčastejšie nejde o exotické scenáre. Ide o bežnú kancelársku prax. Problém je v tom, že každý jednotlivý prípad vyzerá nevinne, ale v súčte vytvára systematický únik firemného know-how.

Finančné dáta a stratégia

Finančný riaditeľ potrebuje dvojstranové zhrnutie ročnej uzávierky pre vedenie. Vloží celý dokument do AI a za niekoľko sekúnd má výstup. Nikto v miestnosti nevie, že výsledky hospodárenia, marže a akvizičné plány práve prešli cez externú službu. Pre verejne obchodované firmy môže ísť o materiálnu neverejnú informáciu s regulačnými dôsledkami.

Zdrojový kód a technická dokumentácia

Vývojár potrebuje nájsť chybu v 200 riadkoch kódu. Vloží ho do AI vrátane komentárov, API kľúčov a konfiguračných údajov. Kód opustí firemné prostredie a firma stráca praktickú kontrolu nad tým, ako bude ďalej spracovaný, uchovaný a zmluvne ošetrený.

Osobné údaje klientov a zamestnancov

Zákaznícky servis vloží celý profil klienta do AI, aby získal kontext pre odpoveď na reklamáciu. Každé takéto vloženie môže znamenať porušenie GDPR. Bez právneho základu, bez zmluvy o spracovaní údajov a bez vedomia organizácie.

Právne dokumenty

Právne oddelenie sumarizuje zmluvu cez AI, HR pripravuje citlivú internú komunikáciu. Dôvernosť právnej komunikácie a ochrana obchodného tajomstva sa po odoslaní obsahu tretej strane bez zmluvného rámca výrazne oslabujú.

Zdravotné a iné citlivé záznamy

V zdravotníctve sa do AI môžu dostávať diagnostické záznamy, anamnézy a liečebné plány. Ak sa to deje cez neschválený nástroj, problémom nie je len regulácia, ale aj kvalita výstupu a riziko nesprávnej interpretácie.

Prístupové údaje a konfigurácia

API kľúče, tokeny, heslá a interné URL adresy sa objavujú v promptoch častejšie, než by si firmy chceli pripustiť. Stačí, aby vývojár skopíroval konfiguračný súbor do AI na analýzu, a credentials sú mimo firemnú infraštruktúru.

Práve preto sú pre bezpečnostné tímy AI prompty problém. V jednom textovom vstupe sa môžu stretnúť osobné údaje, duševné vlastníctvo, zdrojový kód aj prihlasovacie údaje.

Prečo firmy často žijú v ilúzii kontroly

Najväčší problém býva rozdiel medzi tým, čo si firma myslí, a tým, čo sa naozaj deje.

Vedenie organizácie môže mať pocit, že AI je pod kontrolou, pretože existuje smernica, zamestnanci dostali schválený nástroj a IT tím eviduje oficiálne riešenia. Lenže používatelia často siahajú aj po ďalších službách, ktoré sa do tejto predstavy nezmestia. Dôvod je jednoduchý. Chcú rýchlejší výsledok, lepšie rozhranie alebo funkciu, ktorú interný nástroj nemá.

To je ten istý mechanizmus, aký firmy zažili pri Shadow IT. Rozdiel je v tom, že pri AI sú dôsledky rýchlejšie a citlivejšie. Zamestnanec už neobchádza len nákupný proces. Môže obchádzať bezpečnostné, právne aj prevádzkové pravidlá jedným promptom.

Regulácia tento problém ešte zviditeľní

Shadow AI nie je len technický problém. Je to aj otázka súladu s pravidlami.

Podľa aktuálnej časovej osi EÚ sa väčšina pravidiel AI Actu začne uplatňovať od 2. augusta 2026. V tom istom období sa začnú uplatňovať aj pravidlá pre vysokorizikové AI systémy z prílohy III a pravidlá transparentnosti. Pre AI systémy zabudované do regulovaných produktov platí dlhšie prechodné obdobie do 2. augusta 2027.

Zároveň je dôležité dodať, že pri časti high-risk pravidiel sa v EÚ diskutovalo aj o možných posunoch termínov. To však neznamená, že firmy majú čas čakať.

Aj keby sa termíny AI Actu posunuli, GDPR povinnosti platia už dnes. A väčšina shadow AI incidentov má presne tento rozmer. Zamestnanec odošle osobné údaje do externej AI služby bez právneho základu, bez zmluvy o spracovaní údajov a bez vedomia organizácie. To nie je problém budúcnosti. To je problém okamžite.

Z pohľadu compliance vytvára Shadow AI toxickú kombináciu. Firma nevie preukázať, aké AI systémy používa. Nevie doložiť právny základ spracovania osobných údajov. A nemá audit trail ani dostatočné logovanie. Nie je to budúci problém. Je to aktuálny stav vo veľkej časti organizácií.

Čo by mala firma spraviť ako prvé

1. Zistiť, čo sa už používa

Bez inventára nie je možné riadenie. Firma potrebuje vedieť, aké AI nástroje sa používajú oficiálne a aké neoficiálne. To zahŕňa webové služby, doplnky, integrované AI funkcie v SaaS platformách aj samostatných agentov.

2. Rozlíšiť nástroje podľa rizika

Nie všetky AI nástroje predstavujú rovnaký problém. Niektoré môžu byť akceptovateľné pri práci s verejnými alebo nízkocitlivými dátami. Iné by mali byť povolené len za jasných podmienok. A niektoré by mali byť zakázané úplne.

3. Zaviesť pravidlá pre dáta, nie len pre názvy nástrojov

Samotný zoznam povolených a zakázaných služieb nestačí. Dôležitejšie je určiť, aké typy dát sa do AI vôbec nesmú odosielať, ktoré sa môžu spracúvať len v schválenom prostredí a ktoré sú z pohľadu firmy akceptovateľné.

4. Dať ľuďom použiteľnú firemnú alternatívu

Ak firma neposkytne funkčný a pohodlný nástroj, používatelia si nájdu vlastný. Pri Shadow AI to platí dvojnásobne. Cieľom nie je vytvoriť prostredie, v ktorom sa AI nesmie používať. Cieľom je dostať jej používanie pod kontrolu.

5. Nasadiť DLP kontroly špecifické pre AI

Tradičný DLP už nestačí. Firmy potrebujú nástroje, ktoré rozumejú AI špecifickým tokom dát. Monitorovanie promptov, detekcia citlivých údajov v textových vstupoch a upozornenia v reálnom čase budú čoraz dôležitejšie.

6. Začať riešiť aj AI agentov

Mnohé organizácie sa dnes zameriavajú len na chatboty a prompty. To už nestačí. Rovnakú pozornosť si zaslúžia agenti, rozšírenia, automatizácie a nové SaaS funkcie, ktoré získavajú prístup k dátam a procesom. Každý AI agent by mal mať priradeného vlastníka, definované oprávnenia, expiráciu tokenov a pravidelnú revíziu prístupu.

Manažérsky checklist: máte Shadow AI pod kontrolou?

Ak nemáte odpoveď áno na všetkých sedem bodov, riziko Shadow AI je vo firme vysoké.

  • Máte inventár AI nástrojov. Existuje aktuálny zoznam AI služieb používaných vo firme, založený na monitoringu siete a financií, nie len na domnienkach.
  • Máte AI politiku pre dáta. Zamestnanci vedia presne, ktoré typy dát nesmú vkladať do verejných AI modelov a kde je hranica medzi povoleným a zakázaným.
  • Máte schválené alternatívy. Firma ponúka enterprise AI nástroje, ktoré sú funkčne porovnateľné s verejnými službami.
  • Máte AI-aware DLP. Monitorujete AI špecifické toky dát, teda prompty, textové vstupy a uploady do AI služieb, nie len klasické súbory a prílohy.
  • Máte inventár AI agentov. Viete, koľko autonómnych AI agentov beží v prostredí, aké majú oprávnenia, kto je ich vlastník a kedy boli naposledy revidované.
  • Máte SSO pre AI nástroje. Kľúčové AI aplikácie sú integrované do centrálnej správy identít, aby pri odchode zamestnanca automaticky stratil prístup.
  • Máte rýchlu schvaľovaciu cestu. Existuje proces schválenia nového AI nástroja v rozumnom čase, aby sa predišlo obchádzaniu cez osobné účty a neschválené služby.

Záver

Shadow AI nie je hypotetická hrozba ani problém budúcnosti. Je to praktická bezpečnostná téma roku 2026. Firmy dnes už neriešia len to, či zamestnanci používajú verejné AI nástroje. Riešia aj to, aké dáta do nich odchádzajú, aké rozhodnutia cez ne vznikajú a akí AI agenti už bežia v prostredí bez jasného dohľadu.

Najväčšie riziko nespočíva v samotnej existencii AI. Riziko je v tom, že sa AI používa rýchlejšie, než firmy stíhajú zavádzať pravidlá, technické kontroly a zodpovednosť.

Ak dnes vo firme neviete, koľko AI nástrojov sa používa, cez aké účty sú dostupné a ktoré systémy už majú napojené AI funkcie alebo agentov, zistite to. Skôr, ako to zistí regulátor, audítor alebo útočník.

Picture of Ján Kratka

Ján Kratka

20+ rokov skúseností v enterprise IT ako manažér, architekt aj auditor. LinkedIn | jankratka.com

Mohlo by vás tiež zaujímať

Vybrané články z rovnakej tematickej oblasti pre hlbšie pochopenie súvislostí.

Kybernetický útok na cloudovú infraštruktúru Europa.eu →

Útok, za ktorý prevzali zodpovednosť kyberzločinecké skupiny TeamPCP a ShinyHunters, viedol k úniku dát v odhadovanom objeme 350 GB. Interné systémy Komisie zasiahnuté neboli.

Rumunsko čelí masívnym hybridným hrozbám a kyberútokom →

Rumunské štátne inštitúcie a strategická infraštruktúra zaznamenávajú systematický nárast kybernetických incidentov. Ministerstvo obrany v apríli 2026 potvrdilo, že vládne systémy čelia viac ako 10 000 kybernetickým útokom denne.

Kritické zraniteľnosti v Citrix NetScaler vyžadujú okamžitú aktualizáciu →

Spoločnosť Citrix vydala koncom marca 2026 bezpečnostné varovanie týkajúce sa dvoch závažných zraniteľností v produktoch NetScaler ADC a NetScaler Gateway.

Americká kyberagentúra CISA je v rozklade — 60 % zamestnancov na nútenom voľne, hrozby rastú →

Americká Agentúra pre kybernetickú bezpečnosť a bezpečnosť infraštruktúry (CISA) — hlavná federálna inštitúcia zodpovedná za kybernetickú obranu USA — je v najvážnejšej kríze od svojho vzniku.

Ransomvér Medusa zasiahol nemocnicu aj miestnu správu — žiadal 800 000 dolárov za každý cieľ →

Ransomvérová skupina Medusa si v marci 2026 pripísala dva veľké útoky na kritickú infraštruktúru v USA.

EÚ zakázala aplikácie na tvorbu deepfake nahých fotiek — nové pravidlá platia okamžite →

Európska komisia tento týždeň oznámila zákaz AI aplikácií na generovanie falošných nahých fotografií. Opatrenie nadväzuje na AI Act a je priamou reakciou na narastajúci počet prípadov zneužívania deepfake technológie, ktorá sa v posledných rokoch stala nástrojom kyberšikany, vydierania a sextorzie — často aj voči maloletým osobám.

USA: nový AI Fraud Accountability Act a rastúce napätie okolo regulácie AI →

V americkom Kongrese bol predstavený bipartízny zákon AI Fraud Accountability Act, ktorý vytvára nový trestný čin podľa Communications Act – zakazuje používanie vysoko realistických AI-generovaných hlasových klonov a deepfake videí s úmyslom podviesť ľudí o peniaze. 

INTERPOL zlikvidoval 45 000 škodlivých serverov v globálnej operácii →

Medzinárodná operácia koordinovaná INTERPOLom naprieč 72 krajinami vyradila z prevádzky 45 000 škodlivých IP adries a serverov napojených na phishingové, malvérové a ransomvérové ekosystémy, pričom bolo zatknutých 94 osôb. 

Masívny supply-chain útok na open-source bezpečnostné nástroje →

Skupina TeamPCP kompromitovala Trivy – populárny open-source skener zraniteľností od Aqua Security – a injektovala doň malvér kradúci prihlasovacie údaje. 

Chrome rozšírenie QuickLens bolo kompromitované a kradlo kryptomeny →

QuickLens – Search Screen with Google Lens bolo rozšírenie pre Chrome prehliadač ktoré umožňovalo vyhľadávanie obsahu obrazovky cez Google Lens. Google ho odstránil z Chrome Web Store koncom februára 2026 po tom, čo sa zistilo že bolo kompromitované.

Severokórejská skupina ScarCruft útočí cez Zoho a USB médiá →

ScarCruft je severokórejská APT skupina známa kybernetickou špionážou. Detaily o jej najnovšej kampani zverejnil Zscaler ThreatLabz vo februári 2026.

Eurail, predajca Interrail a Eurail lístkov, rieši únik dát. Dáta sa objavili na dark webe →

Firma zverejnila, že pri prieniku došlo k neoprávnenému prístupu k databáze zákazníkov a časť dát bola aj ukradnutá. Eurail následne potvrdil, že údaje boli ponúknuté na predaj na dark webe a vzorka sa objavila aj na Telegrame.  

NIST certifikoval prvý komerčný HSM modul s plnou podporou štandardu ML-KEM (FIPS 203) →

Toto zariadenie predstavuje prvý certifikovaný hardvérový prvok na trhu, ktorý v plnej miere spĺňa požiadavky normy FIPS 203 pre generovanie a bezpečnú správu mriežkových kryptografických kľúčov v post-kvantovej ére.

ENISA zverejnila technické usmernenia pre oznamovacie povinnosti podľa Aktu o kybernetickej odolnosti (CRA) →

Dokument špecifikuje presnú štruktúru dát pre „počiatočné oznámenie“ aktívne zneužívaných zraniteľností, ktoré musia výrobcovia podať príslušným orgánom do 24 hodín od ich zistenia.

Gartner a NIST definujú nové riziká: AI agenti ako hrozba pre infraštruktúru →

Gartner vo svojej najnovšej predikcii varoval, že do roku 2028 bude významná časť výpadkov kritickej infraštruktúry v krajinách G20 spôsobená chybne konfigurovanou AI, nie priamym hackerským útokom.

CISA aktualizovala KEV katalóg: Kritické chyby v SolarWinds a Notepad++ sú aktívne zneužívané →

Americká agentúra pre kybernetickú bezpečnosť a infraštruktúru (CISA) dňa 12. februára 2026 rozšírila svoj katalóg známych zneužívaných zraniteľností (KEV) o štyri nové položky. Tento krok je priamym signálom pre IT manažérov, že na dané systémy prebiehajú aktívne útoky v reálnom prostredí a vyžadujú si okamžitú nápravu.

Microsoft Patch Tuesday: Oprava 78 chýb vrátane kritickej zraniteľnosti RDP a piatich zero-day hrozieb →

Spoločnosť Microsoft včera v rámci pravidelného februárového cyklu „Patch Tuesday“ vydala bezpečnostné aktualizácie, ktoré riešia celkovo 78 zraniteľností naprieč ekosystémom Windows, Office a Azure. Kritickú pozornosť si vyžaduje fakt, že až päť z týchto chýb je klasifikovaných ako zero-day, čo potvrdzuje ich aktívne zneužívanie hackerskými skupinami ešte pred vydaním oficiálnej opravy.

„Broken Pipes“: Nová metóda exfiltrácie dát z prostredia Azure →

Bezpečnostní analytici odhalili v úvode februára 2026 sofistikovanú kampaň zameranú na cloudovú infraštruktúru Azure.

Ransomvér Polymorph: Príchod plne autonómneho škodlivého kódu →

Na rozdiel od doterajších verzií nevyužíva statické príkazy z riadiaceho servera (C2), ale disponuje integrovaným lokálnym AI modelom určeným na autonómnu modifikáciu vlastného kódu.

Deepfake útok na sieť SWIFT: Hlasová biometria pod paľbou AI →

Útočníci úspešne zrealizovali neautorizovaný prevod vysokého objemu finančných prostriedkov cez sieť SWIFT s využitím hlasového deepfake modelu v reálnom čase.

Kritická chyba v GNU Telnetd umožňuje okamžitý root prístup →

Bezpečnostní výskumníci odhalili 11 rokov starú kritickú zraniteľnosť v balíku GNU InetUtils telnetd, ktorá umožňuje neautentifikovaným útočníkom získať okamžitý root prístup k serveru.

Notepad++ pod paľbou: Čínska skupina APT31 pol roka zneužívala aktualizačný proces →

Populárny textový editor Notepad++, ktorý je štandardom pre milióny vývojárov a IT administrátorov, sa stal obeťou sofistikovaného útoku na dodávateľský reťazec (supply chain attack).