AI a zákony: co potřebuješ vědět

Brusel vydal zákon o umělé inteligenci. Vývojáři v San Franciscu si přečetli tisícistránkový zákon, pokrčili rameny a dál trénovali modely. Vývojáři v Praze si přečetli tisícistránkový zákon, zavolali právníkovi a začali uvažovat o přestěhování. To je v kostce to, o čem tady budeme mluvit.

Jak je to s autorskými právy?

Aby něco mohlo mít autorskoprávní ochranu, musí jít o dílo kreativní, jedinečné a — klíčový bod — vytvořené člověkem. Třetí podmínka u čistě generovaného obsahu splněna není, takže vygenerované obrázky ani texty zpravidla autorská práva nemají.

Zpravidla. Tady ale každé slovo záleží, protože právní situace je dost nejistá a záleží na jurisdikci i podmínkách konkrétní služby. A pak je tu ještě druhá otázka — jestli vůbec směla být data k trénování sebrána.

Prakticky vzato: použiješ-li AI jako zdroj inspirace a výsledek vlastní kreativní prací rozvedeš, autorská práva máš. Na vygenerovaný output jako takový zatím příliš nespoléhej — ani v rovině ochrany, ani v rovině čistého svědomí.

Smí AI firmy trénovat na cizím obsahu?

Tohle je ta druhá — a upřímně řečeno drsnější — strana problému. Nejde jen o to, kdo vlastní výstup. Jde o to, jestli vůbec směla být trénovací data sebrána.

AI modely se trénují na obrovském množství textů, obrázků a kódu stažených z internetu. Knihy, novinové články, fotografie, blogové příspěvky, kód na GitHubu. Autoři o tom ve většině případů nevěděli a souhlas nedali. Představ si, že někdo vyfotí celou tvou knihovnu, naučí se z ní psát a pak ti konkuruje — a ty se o tom dozvíš z novin.

V USA se firmy brání doktrínou fair use — tvrdí, že trénování modelu je transformativní užití, ne kopírování. Model přece neukládá kopie, jen se z nich učí vzorce. Jenže New York Times v žalobě předložil důkazy, že ChatGPT dokáže reprodukovat celé odstavce jejich článků — doslova, slovo od slova. To zní jako docela silný argument proti „transformativnosti". Authors Guild (asociace amerických spisovatelů) zažaloval OpenAI z podobných důvodů. Verdikty zatím nejsou.

V EU je situace trochu jiná. Evropské autorské právo obsahuje výjimku pro text and data mining — směrnice o digitálním jednotném trhu umožňuje automatické zpracování legálně přístupného obsahu, pokud autor výslovně neřekl „ne", třeba zákazem v robots.txt. Celý systém stojí na tom, že pokud jsi stahování výslovně nezakázal, firmy berou, že souhlasíš. To je, jako kdyby ti soused mohl vyžrat ledničku s tím, že sis ji nezamkl. (Což, pokud vím, funguje jen v sitcomech a v právu EU.)

A žaloby se sypou ze všech stran. V Británii Getty Images u soudu v podstatě neuspěl — soud na konci roku 2025 rozhodl, že trénování AI modelů na fotografiích neznamená porušení autorských práv. Německá GEMA naopak u mnichovského soudu uspěla — reprodukce textů písní při trénování je porušení autorských práv (OpenAI se odvolává). Dánští vydavatelé podali hromadnou žalobu v létě 2025. Jeden soud řekne ano, druhý ne. Výsledky těchto sporů rozhodnou, jak bude celý trh s AI vypadat — a v obou případech se rozhoduje bez autorů u stolu.

Co je EU AI Act?

Prvního srpna 2024 vstoupil v platnost EU AI Act — historicky první komplexní zákon o umělé inteligenci na světě. Základ logiky je zdravý: čím větší riziko, tím přísnější pravidla. Chatbot na zákaznické lince dostane jiná pravidla než AI, která rozhoduje o tvé hypotéce nebo trestním stíhání.

Zákon platí od 1. 8. 2024, ale aplikuje se postupně: zákazy nejnebezpečnějších systémů platí od 2. 2. 2025, pravidla pro vysoce rizikové oblasti (zdravotnictví, zaměstnání, vzdělávání) pak od 2. 8. 2026. Na plný provoz si tedy počkáme ještě chvíli.

Zákon se navíc nevztahuje jen na evropské firmy. Pokud tvoje AI dělá cokoli, co se dostane k uživatelům v EU — i třeba jen zobrazuje výsledky na webu — spadáš pod jeho dosah. OpenAI, Google, Meta. Všichni.

Dobré záměry. Teď se podíváme, jak to dopadá v praxi.

Jak AI Act třídí systémy?

Zákon rozděluje AI do čtyř skupin. Na jednom konci jsou věci, které jsou prostě zakázány. Na druhém spam filtry, kde se nikdo moc nestresuje.

Zakázané AI jsou věci, které skutečně nechceme: social scoring — tedy hodnocení občanů státem podle chování, jak to dělá Čína. Biometrická kategorizace lidí na veřejných místech v reálném čase. Manipulace podprahem vědomí. To jsou legitimní zákazy a je za nimi solidní důvod.

Vysoce rizikové AI zahrnují zdravotnictví, vzdělávání, přijímání do zaměstnání, kritickou infrastrukturu. Pokud AI rozhoduje o tom, jestli dostaneš práci nebo léčbu, mělo by to být průhledné a přezkoumatelné. Taky v pořádku.

Omezené riziko: chatboti musí říct, že jsou AI (přijde ti zpráva od robota? Robot to musí přiznat — alespoň tohle). Deepfaky musí být označené. Rozumné.

Minimální riziko: spam filtr, AI ve hrách, doporučovací algoritmy. Sem zákon sahá jen minimálně — a správně.

Na papíře to vypadá celkem přijatelně. Problémy přijdou, jakmile zákon dopadne na realitu.

Co to znamená pro tebe?

Máš právo vědět, když mluvíš s AI. Máš právo na vysvětlení, když tě AI hodnotí ve vysoce rizikové oblasti. Zní to dobře.

Jenže v praxi se dělo přesně toto: Claude.ai — jeden z nejlepších chatbotů na světě — byl po svém spuštění dostupný v USA a UK, ale ne v EU. Anthropic prostě počkal, až vyřeší compliance. Google Gemini měl AI funkce zpožděné v Evropě o měsíce. Francie to pocítila zvlášť. A v červenci 2025 Meta oznámila, že EU AI Code of Practice v navrhované podobě nepodepíše — dokument, který měl být dobrovolným standardem pro zodpovědné nasazení AI.

Zatímco se v Bruselu řeší papíry, ty čekáš na funkce, které uživatelé v USA mají o půl roku dříve.

Co to znamená pro firmy?

Pokuty za porušení AI Actu jsou astronomické: až 35 milionů eur nebo 7 % ročního světového obratu. Pro velké firmy bolestivé, ale přežitelné. Pro startup to může být konec ještě před rozjezdem.

Compliance náklady pro středně velký startup se odhadují na 50 až 100 tisíc eur jenom na start. Právníci, auditoři, dokumentace. A to před tím, než vůbec napíšeš první řádek kódu. Jenže startupy přitom ani pořádně nevědí, jestli jejich produkt je „vysoce rizikový" nebo ne — kritéria jsou napsaná způsobem, který dává právníkům stabilní příjem a zakladatelům nespavost.

Výsledek je předvídatelný: lidé se zkušenostmi s AI odcházejí do USA nebo Singapuru. Tam jsou sice taky pravidla, ale aspoň jsou tam i peníze.

A tady stojí za to připomenout jeden historický precedens — protože tohle jsme jednou zažili.

GDPR chtělo chránit lidi před nezřízeným sledováním na internetu. Záměr byl dobrý. Výsledek? Weby pokryté bannery, na které všichni klikají „Souhlasím" bez přečtení — a pak jdou dál řešit, co původně chtěli dělat.

Výzkumy ukazují, že jen zlomek uživatelů by sledovací cookies dobrovolně povolil, kdyby bylo rozhodnutí neutrální. Ve skutečnosti „OK" odkliká drtivá většina — ne proto, že souhlasí, ale proto, že je banner otravuje víc než samotné sledování. GDPR nás systematicky naučil bezmyšlenkovitě odklikávat bannery. To je přesný opak toho, co zákon zamýšlel.

Mezitím průmysl přešel na fingerprinting — techniku, která tě identifikuje podle kombinace způsobu vykreslování stránek, rozlišení obrazovky, nastavení GPU a desítek dalších technických parametrů. Zákon formálně vyžaduje souhlas i tady — jenže fingerprinting nic neukládá do tvého prohlížeče, takže ti nevyskočí žádná lišta, nemáš co odmítnout a regulátor to sotva detekuje. Stejná pravidla na papíře, nulová možnost je v praxi vymáhat.

AI Act hrozí stejnou pastí. Firmy vytvoří papírový soulad se zákonem — dokumentaci, checklisty, audity — které vykazují správný postup na papíře, ale reálnou bezpečnost neřeší. Budeme mít spoustu papírů a málo ochrany. Tohle by byla opravdu smutná varianta.

Zatímco EU reguluje, zbytek světa vyvíjí

Čísla jsou nemilosrdná. Podle dostupných dat má USA přes čtyřicet základních AI modelů, Čína kolem patnácti. Celá Evropa dohromady — tři.

Na venture capital: USA investuje do AI přibližně 68 miliard dolarů ročně, EU osmkrát méně. Výpočetní kapacity? USA má sedmnáctkrát víc než Evropa.

A co cloud, na kterém to všechno běží? Zhruba 65 % evropského cloudového trhu kontrolují tři americké firmy: Amazon, Microsoft a Google. Evropa reguluje infrastrukturu, kterou nevlastní — to je trochu jako vydávat jízdní řád pro cizí vlaky.

Na politické úrovni: Biden měl výkonný příkaz o bezpečnosti AI. Trump ho 20. ledna 2025 zrušil a podepsal nový — s názvem „Odstranit bariéry americkému vedení v AI". Čína reguluje obsah (co AI smí říct), ale do samotného vývoje zásadně nezasahuje.

Mistral ze Francie je jediný evropský hráč, který se dokáže měřit s americkými giganty. Valuace přes 6 miliard eur v roce 2024 — série C v roce 2025 ji posunula ještě výš — a přesto je Mistral výjimka, ne pravidlo. Na mapu základních modelů se Evropa jinak nevejde.

A přesto regulace nejsou zbytečné

Ne. A to je důležité říct nahlas.

Věci, které AI Act zakazuje — social scoring, biometrický dohled v reálném čase na ulicích — jsou legitimní zákazy. Nechceme AI, která státu umožní sledovat každý tvůj pohyb a hodnotit tě jako sociálně spolehlivého nebo nespolehlivého. To není sci-fi dystopie, to existuje a je to v Číně. Říct „toto u nás ne" je správné a zodpovědné.

Označování deepfaků a povinnost chatbota přiznat, že je AI — taky rozumné. Lidé mají právo vědět, s kým mluví. Co nás ve skutečnosti ohrožuje, dočteš se v rizika a přínosy AI.

Problém není co regulovat, ale jak. Pokyny vydané pozdě, nejasná kritéria, nepřiměřené náklady pro malé firmy, žádný přechodný čas na adaptaci. V listopadu 2025 EU sama diskutovala o odkladné lhůtě — prodloužení termínů pro splnění požadavků. Když regulátor potřebuje prodloužit lhůty ještě před tím, než zákon nabyde plné účinnosti, je to celkem jasný signál, že se to trochu přehnalo.

Regulace, která chrání lidi — ne Evropu před technologií

V průmyslové revoluci zavedli bezpečnostní předpisy ve fabrikách. Bylo to nutné — lidé umírali. S parním strojem byly problémy — nikdo ho ale kvůli tomu nezakázal. Řešením bylo nastavit podmínky, za nichž může fungovat bezpečně.

AI regulace by měla chránit lidi před AI — před manipulací, před nespravedlivým automatickým rozhodováním, před sledováním bez vědomí a souhlasu. To je legitimní cíl a za ním stojím.

Nesmí ale chránit Evropu před AI — tedy před technologií samotnou, před inovací, před konkurenceschopností. Takový zákon by nás neochránil před ničím, jen by nás posunul na vedlejší kolej dějin. A to je poměrně vysoká cena za to, že máme dobře vyplněné checklisty.

Poslední aktualizace: únor 2026