Európska komisia tento týždeň oznámila zákaz AI aplikácií na generovanie falošných nahých fotografií. Opatrenie nadväzuje na AI Act a je priamou reakciou na narastajúci počet prípadov zneužívania deepfake technológie, ktorá sa v posledných rokoch stala nástrojom kyberšikany, vydierania a sextorzie — často aj voči maloletým osobám.
Podľa nových pravidiel sú platformy povinné tieto aplikácie aktívne odstrániť zo svojich obchodov a brániť ich opätovnej distribúcii. Porušenie môže viesť k sankciám podľa Digital Services Act. Rozhodnutie je súčasťou širšieho balíka opatrení EÚ na reguláciu digitálneho priestoru, kde sa hranica medzi generovaným a reálnym obsahom čoraz viac stiera.
Pre firmy, ktoré vyvíjajú alebo nasadzujú AI nástroje, to znamená ďalšiu vrstvu compliance povinností — tentokrát nie v oblasti kybernetickej bezpečnosti, ale v oblasti bezpečného a etického využívania umelej inteligencie. AI Act počíta s rôznymi úrovňami regulácie podľa rizikovosti AI systému. Generovanie nelegálneho obsahu vrátane deepfake nahých fotografií bez súhlasu dotknutej osoby patrí medzi zakázané praktiky s najvyšším stupňom rizika.
Tento krok EÚ má aj praktický presah do kybernetickej bezpečnosti. Deepfake technológia sa čoraz častejšie používa pri cielených phishingových útokoch, podvodoch s falošnou identitou vedenia firiem a sociálnom inžinierstve. Organizácie, ktoré riešia bezpečnostné povedomie zamestnancov v rámci NIS2 opatrení, by mali do školení zaradiť aj rozpoznávanie deepfake obsahu.
Rozhodnutie Komisie zároveň signalizuje smer, akým sa bude uberať európska regulácia AI v nasledujúcich rokoch — od všeobecných pravidiel ku konkrétnym zákazom založeným na reálnych škodách.