Sociálna sieť pre AI agentov sa stala virálnou senzáciou prakticky cez noc. Rovnako rýchlo sa však zmenila na varovný príklad pre celé technologické odvetvie. Analýza incidentu odhaľuje nielen fatálne bezpečnostné chyby, ale otvára aj závažné podozrenia, že „autonómna AI komunita“ bola v skutočnosti divadlom riadeným ľuďmi a marketingovou dymovou clonou.
V posledných dňoch sa technologický svet na moment zastavil pri projekte Moltbook. Platforma, ktorá sľubovala prvú skutočnú sociálnu sieť výhradne pre AI agentov, vyvolala vlnu nadšenia. Andrej Karpathy, jedna z najväčších autorít v oblasti AI, ju označil za „sci-fi takeoff-adjacent“ – predzvesť budúcnosti, kde autonómne systémy komunikujú bez zásahu človeka.
O pár dní neskôr však prišiel tvrdý náraz. Bezpečnostná analýza a následné odhalenia ukázali, že kráľ je nahý. Moltbook nebol len technicky nezabezpečený; stal sa symptómom hlbšieho problému v súčasnom vývoji AI aplikácií. Pre manažérov informačnej bezpečnosti a technologických riaditeľov (CTO/CISO) je tento prípad kritickou prípadovou štúdiou o tom, čo sa stane, keď sa „hype“ uprednostní pred architektúrou a keď sa generovanie kódu cez LLM zamieňa za softvérové inžinierstvo.
Technická anatómia zlyhania: Keď chýba Security by Design
Podľa detailnej analýzy bezpečnostných výskumníkov z cloud-security firmy Wiz trvalo prelomenie bezpečnosti Moltbooku menej ako tri minúty. To nie je metafora, ale fakt. Útočníci na získanie plného prístupu nepotrebovali zero-day exploity ani sofistikované sociálne inžinierstvo. Stačil im webový prehliadač a základná znalosť API inšpekcie.
Príčinou bol klasický backend misconfiguration a absencia akejkoľvek autorizačnej vrstvy. Výskumníci získali prístup k:
- Približne 35 000 e-mailovým adresám (vrátane tých, ktoré mali byť „súkromné“).
- Tisícom súkromných správ medzi používateľmi a agentmi.
- Približne 1,5 miliónu aktívnych API autentizačných tokenov.
Problém 1: Broken Object Level Authorization (BOLA)
Z pohľadu OWASP API Security Top 10 išlo o učebnicové zlyhanie v kategórii BOLA (Broken Object Level Authorization). Systém nedokázal overiť, či používateľ (alebo agent), ktorý žiada o dáta, má na ne skutočne oprávnenie. API endpointy boli verejne dostupné a predvídateľné.
Problém 2: Tokeny ako kľúče od kráľovstva
Wiz identifikoval, že autentizačné tokeny v systéme nefungovali štandardným spôsobom (napr. s krátkou expiráciou a obmedzeným scope). Fungovali prakticky ako trvalé heslá k bot účtom. Získanie tokenu znamenalo plné prevzatie digitálnej identity agenta.
Toto zistenie je pre enterprise prostredie alarmujúce. Útočník s takýmto tokenom mohol:
- Narušiť dôvernosť (Confidentiality): Čítať celú históriu komunikácie.
- Narušiť integritu (Integrity): Aktívne publikovať obsah, posielať správy iným agentom, meniť nastavenia alebo mazať existujúce príspevky – všetko pod identitou cudzieho agenta.
V kontexte „agentickej siete“, kde je hodnota postavená na interakciách, znamená možnosť zápisu (Write access) deštrukciu dôvery. Ak neviete garantovať, že správu napísal daný agent, platforma stráca zmysel.

Fenomén „Vibe Coding“: Technický dlh už v deň nula
Jedným z najdiskutovanejších aspektov kauzy je priznanie tvorcu Moltbooku, Matta Schlichta. Ten verejne uviedol, že platformu vytvoril bez napísania jediného riadku kódu, pričom sa plne spoliehal na generatívnu AI (nástroje ako Cursor, Replit či ChatGPT).
Tento prístup sa označuje ako „Vibe Coding“. Ide o štýl vývoja, kde tvorca zadáva príkazy v prirodzenom jazyku („chcem, aby to vyzeralo takto a robilo toto“) a AI generuje kód.
Pre bezpečnostných manažérov je „Vibe Coding“ nočnou morou, a to z niekoľkých dôvodov:
- Absencia architektúry: LLM modely sú vynikajúce v generovaní syntakticky správneho kódu pre izolované funkcie, ale (zatiaľ) zlyhávajú pri chápaní komplexnej bezpečnostnej architektúry a vzájomných závislostí.
- Ignorovanie Edge Cases: AI často generuje „happy path“ kód – riešenie, ktoré funguje, ak všetko ide ideálne. Zriedka však automaticky implementuje defenzívne programovanie, rate limiting či robustnú validáciu vstupov, ak si to používateľ explicitne nevyžiada.
- Vynechanie SDLC: Pri takomto rýchlom vývoji sa preskakujú štandardné fázy životného cyklu vývoja softvéru (SDLC) – penetračné testovanie, statická analýza kódu (SAST), threat modeling či revízia IAM (Identity and Access Management).
Výsledkom je aplikácia, ktorá navonok funguje, ale pod kapotou je „deravá“ už v momente nasadenia. V enterprise sfére to znamená neakceptovateľné riziko.

Hypotéza „Wizard of Oz“: Bol ľudský zásah chybou alebo stratégiou?
Ešte znepokojujúcejšia než technické chyby je línia, ktorú naznačujú zistenia magazínu The Verge a ďalších analytikov. Existuje silné podozrenie, že prítomnosť ľudí v systéme nebola len zlyhaním autentifikácie, ale pôvodným zámerom dizajnu.
Tento fenomén je známy ako „Wizard of Oz testing“ (testovanie Čarodejníka z krajiny Oz) – simulácia funkčnosti technológie ľudskými operátormi, aby sa otestovala reakcia trhu ešte predtým, než technológia reálne existuje.
Prečo to vyzerá na podvod?
- Komplexita interakcií: Skutočné LLM agenty, ak sú nechané samy na seba, majú tendenciu upadať do repetitívnych slučiek alebo generovať strohý obsah. Moltbook však v prvých hodinách vykazoval vysokú mieru „drámy“, humoru a kontextuálnych narážok, ktoré sú typické pre ľudí, nie pre súčasné modely.
- Deravá brána: Systém nemal prakticky žiadne zábrany proti vytváraniu falošných agentov. Chýbali captchas, overenie domény či kryptografické podpisy. To nahráva teórii, že brány boli nechané otvorené zámerne, aby sa platforma rýchlo naplnila obsahom – bez ohľadu na pôvodcu.
- Investičný FOMO: V súčasnom cykle rizikového kapitálu sa cení viralita. Projekt, ktorý vyzerá ako „živý ekosystém“, má radovo vyššiu valuáciu než „nudný“ technický prototyp.
Pre investorov a partnerov je to varovný signál. Hranica medzi „marketingovým demom“ a podvodom na investoroch (due diligence fraud) je v tomto prípade extrémne tenká.
Governance a legislatívny dopad (GDPR a AI Act)
Incident má aj právny rozmer, ktorý by nemal uniknúť pozornosti DPO (Data Protection Officers) a právnych oddelení.
- Porušenie GDPR: Únik 35 000 e-mailov a súkromných správ je jasným porušením dôvernosti. V prípade Moltbooku je však situácia komplikovanejšia. Ak prevádzkovateľ nevie rozlíšiť medzi agentom a človekom, ako môže splniť povinnosť notifikácie dotknutých osôb? Forenzná neistota sťažuje plnenie ohlasovacej povinnosti do 72 hodín.
- Transparentnosť podľa AI Act: Pripravovaná európska legislatíva kladie dôraz na transparentnosť. Používateľ musí vedieť, či komunikuje s AI alebo s človekom. Moltbook túto hranicu úplne zmazal. Ak sa ľudia vydávajú za AI agenty (a naopak) bez označenia, ide o fundamentálne porušenie princípov dôveryhodnej AI (Trustworthy AI).
Ponaučenie pre management: Ako nenaletieť a ako stavať bezpečne
Moltbook je drahá lekcia, za ktorú našťastie zaplatili iní. Pre slovenské firmy a IT manažérov z toho vyplýva niekoľko konkrétnych krokov, ktoré by mali byť súčasťou AI stratégie:
- Zmeňte prístup k Vendor Risk Managementu (VRM): Pri obstarávaní AI riešení alebo integrácii startupov už nestačí vidieť demo. Vyžadujte dôkaz o bezpečnosti architektúry. Pýtajte sa: „Ako je riešená autentifikácia agentov? Kto má kľúče od API? Existuje audit log?“
- Pozor na „Low-Code/No-Code“ v produkcii: Nástroje na generovanie kódu sú skvelé na prototypovanie, ale kód vygenerovaný AI musí prejsť rovnakým, ak nie prísnejším bezpečnostným review ako kód napísaný človekom.
- Segregácia a Sandboxing: Ak experimentujete s agentickými systémami, nikdy ich nepripájajte priamo na produkčné dáta alebo interné systémy (napr. Slack, CRM) bez prísnej medzivrstvy. Predpokladajte, že agent môže byť kompromitovaný.
- Overiteľná identita: V budúcnosti bude kľúčové kryptografické podpisovanie obsahu (napr. štandard C2PA), aby bolo jasné, čo vygeneroval model a čo napísal človek.
Záver
Moltbook nie je dôkazom, že AI agenti sú nebezpeční sami o sebe. Je dôkazom toho, že keď sa Shadow IT a Vibe Coding stretnú bez kontroly, výsledkom je strata dát a reputácie.
Ukazuje sa, že vytvoriť ilúziu AI revolúcie trvá pár dní. Rozbiť ju trvá bezpečnostným expertom tri minúty. Rozdiel medzi týmito dvoma časmi je presne ten priestor, kde môžu firmy prísť o milióny – či už formou zlej investície, alebo úniku vlastných dát. Pri ďalšej „revolučnej“ AI novinke sa preto oplatí najprv pýtať na architektúru, až potom obdivovať funkcionalitu.