Umělá inteligence vlétla do zdravotnictví rychleji, než na to byly nemocnice, jejich IT oddělení i regulátoři připraveni. Zatímco se oficiálně schvalují strategie, směrnice a pilotní projekty, v každodenním provozu už běží něco jiného. V nemocnicích a ambulancích se nenápadně rozvíjí tichý, neformální a často neviditelný provoz generativní umělé inteligence. Vzniká paralelní svět takzvané shadow AI, tedy nástrojů používaných mimo dohled IT, vnitřních pravidel i vedení organizací.
Podle bezpečnostních expertů přitom nejde o okrajový jev. Jde totiž o jedno z nejzávažnějších kybernetických rizik současného zdravotnictví.
Co je Shadow AI
Shadow AI označuje používání nástrojů umělé inteligence bez vědomí nebo schválení vedení či IT oddělení. Nejčastěji jde o veřejně dostupné generativní aplikace, které zaměstnanci využívají při běžné práci. Nejde o experimenty nadšenců, ale o praktickou pomoc v každodenním provozu.
Typický scénář bývá nenápadný. Lékař potřebuje rychle shrnout dokumentaci, sestra upravit poučení pro pacienta, administrativní pracovník odpovědět na složitý e-mail. Veřejná AI je dostupná během několika sekund a šetří čas. V prostředí přetíženého zdravotnictví je taková pomoc lákavá.
Problém nastává ve chvíli, kdy se do těchto nástrojů dostanou zdravotní údaje nebo interní informace. Organizace ztrácí kontrolu nad tím, kde data končí, jak jsou zpracovávána a zda nejsou dále využívána. Z rychlé pomůcky se tak stává neviditelná infrastruktura, která obchází oficiální pravidla.
Shadow AI přitom nevzniká ze zlého úmyslu, ale z tlaku na výkon a rychlost. A právě proto ji nelze vyřešit pouhým zákazem.
Jaká rizika zůstávají pod povrchem
Největší problém Shadow AI není v tom, že existuje, ale v tom, že o ní často ti, co by měli vědět, neví. Použití veřejného nástroje se většinou neobjeví v nemocničních systémech ani v oficiální dokumentaci. Riziko tak vzniká tiše a mimo kontrolu.
První rovinou jsou data. Jakmile někdo vloží část zdravotnické dokumentace do veřejné AI, organizace ztrácí přehled o tom, kam se informace dostanou a jak budou dál využity. To může znamenat vážný problém z pohledu ochrany osobních údajů.
Druhou rovinou je obsah. AI dokáže vytvořit přesvědčivý text, který ale může být nepřesný nebo chybný. Pokud se bez kontroly dostane k pacientovi, může způsobit reálnou škodu.
A pak je tu dlouhodobý dopad. Shadow AI mění způsob práce a vytváří závislost na nástrojích, nad nimiž nemocnice nemá kontrolu. Nejde jen o jednotlivé chyby, ale o změnu, která probíhá bez jasných pravidel.
Jak dostat Shadow AI pod kontrolu bez udušení inovace
První reakcí na stínovou AI bývá zákaz. Zablokovat přístup, vydat přísný pokyn, pohrozit sankcemi. Je to pochopitelné, ale většinou to nefunguje. Pokud organizace nenabídne bezpečnou alternativu, zaměstnanci si cestu najdou. Prvním krokem proto není represe, ale přiznání reality. AI se už používá a cílem nemá být její potlačení, ale řízené zapojení do praxe. Dalším krokem je nastavit jasná a srozumitelná pravidla. Interní politika má vymezit povolené nástroje, zakázané postupy i odpovědnosti.
Současně je nutné nabídnout bezpečné a skutečně použitelné řešení. Pokud nemocnice poskytne oficiální nástroj, který funguje, potřeba obcházet pravidla výrazně klesne.
AI musí být součástí řízení rizik podle NIS2 a napojena na procesy kybernetické bezpečnosti. A bez kultury otevřenosti, kde se chyby hlásí bez strachu, zůstane Shadow AI dál ve stínu.
Česká reakce: metodický rámec místo zákazu
Na situaci reagovalo také Ministerstvo zdravotnictví ČR, které v červnu loňského roku vydalo Metodický pokyn pro poskytovatele zdravotních služeb k využívání umělé inteligence. Dokument nestaví na restrikci, ale na odpovědném používání.
Základními principy jsou transparentnost, odpovědnost zdravotníka, ochrana osobních údajů, zabezpečení přístupů a zavedení mechanismu hlášení incidentů. AI má být podpůrným nástrojem, nikoli autonomním rozhodovatelem, a její použití má být dohledatelné.
Metodika vytváří důležitý základ. Sama o sobě však Shadow AI neeliminuje. Rozhodující bude způsob implementace.
Domácí úkoly pro poskytovatele zdravotních služeb
Jaké kroky by si měl poskytovatel splnit pro odpovědné používání AI? Rok 2026 bude testem připravenosti. Kombinace metodického rámce, AI Act, GDPR a implementace NIS2 znamená, že improvizace už nebude obhajitelná. Do konce roku 2026 by měl každý poskytovatel mít:
1. Interní AI governance rámec
Poskytovatel musí mít schválenou interní politiku využívání AI, která vymezuje povolené nástroje, odpovědnosti a schvalovací procesy. Bez jasného rámce zůstává používání AI roztříštěné a rizika se přesouvají na jednotlivce místo organizace.
2. Začlenění AI do risk managementu dle NIS2
AI musí být identifikována jako samostatná riziková oblast v rámci systému řízení kybernetických a provozních rizik. Pokud není AI součástí oficiální analýzy rizik, nelze prokázat, že organizace plní povinnosti odpovědného řízení podle NIS2.
3. Posouzení povinnosti DPIA
Organizace musí formálně vyhodnotit, zda zavedení AI představuje nový způsob zpracování osobních údajů a zda vzniká vysoké riziko pro práva pacientů. Ignorování této povinnosti může znamenat, že provoz AI nemá dostatečnou právní oporu podle GDPR.
4. Mapování datových toků
Je nutné detailně popsat, jaká data do AI vstupují, kde jsou zpracovávána a zda dochází k přenosu mimo EU. Transparentní znalost datových toků je klíčová pro smluvní ošetření i pro zvládnutí případného incidentu.
5. Schválený a zabezpečený AI nástroj
AI by měla být provozována pouze v oficiálně schváleném prostředí s auditní stopou a řízeným přístupem. Používání veřejných nebo neschválených nástrojů zvyšuje riziko úniku dat i regulatorních sankcí.
6. Dokončená DPIA (pokud je vyžadována)
Pokud analýza potvrdí vysoké riziko, musí být DPIA řádně zpracována a aktualizována při změně systému. Dokument musí prokazovat, že organizace rizika identifikovala a přijala konkrétní technická a organizační opatření. Pokud poskytovatel zdravotních služeb nemá DPIA, obtížně prokáže, že rizika systematicky vyhodnotil. V případě incidentu může její absence znamenat zásadní regulatorní slabinu.
7. Transparentnost a auditovatelnost
Použití AI v klinických nebo administrativních procesech musí být dohledatelné a zpětně auditovatelné. Bez auditní stopy nelze vyhodnotit odpovědnost ani kvalitu výstupů.
8. Pravidelné školení zaměstnanců
Zdravotníci a administrativní pracovníci musí rozumět limitům generativní AI, riziku halucinací i pravidlům práce s citlivými údaji. Školení je preventivní nástroj, který snižuje pravděpodobnost vzniku Shadow AI.
9. Vendor governance a smluvní ošetření
Vztahy s dodavateli AI musí být smluvně jasně upraveny, včetně role zpracovatele, odpovědnosti za výstupy a podmínek přenosu dat mimo EU. Bez důkladné vendor governance nese většinu regulatorního rizika samotný poskytovatel zdravotních služeb.
10. Funkční systém hlášení incidentů
Organizace musí mít jasně nastavený a důvěryhodný mechanismus hlášení chyb, podezřelých výstupů AI a bezpečnostních incidentů. Včasné hlášení umožňuje rychlou nápravu a může významně snížit dopady případného regulatorního řízení.
Úkoly a termíny najdete v přehledné tabulce
| # | Název a popis úkolu | Časový milník |
| 1 | Interní AI governance rámec – přijatá politika využívání AI, vymezení odpovědností, schvalovací procesy, role DPO a IT | Rozpracováno / schváleno nyní (Q1 2026) |
| 2 | Začlenění AI do risk managementu dle NIS2 – AI identifikována jako riziková oblast, určen vlastník rizika, napojení na incident management | Nyní (NIS2 již účinné) |
| 3 | Posouzení povinnosti DPIA – formální vyhodnocení, zda AI představuje nový způsob zpracování OÚ | Nyní (Q1–Q2 2026) |
| 4 | Mapování datových toků – popis, kde a jak jsou data zpracovávána, přenosy mimo EU, role zpracovatelů | Nyní (Q1–Q2 2026) |
| 5 | Schválený a zabezpečený AI nástroj – oficiální řešení s auditní stopou, řízenými přístupy a bezpečnostní architekturou | Do 2. 8. 2026 (AI Act – high-risk systémy) |
| 6 | Dokončená DPIA (pokud je vyžadována) – dokumentovaná rizika, právní základ, přijatá technická a organizační opatření | Do 2. 8. 2026 |
| 7 | Transparentnost a auditovatelnost – dohledatelnost použití AI v klinické dokumentaci a možnost zpětného auditu | Do 2. 8. 2026 |
| 8 | Pravidelné školení zaměstnanců – školení o limitech AI, ochraně dat, halucinacích modelu a incident reporting | Nejpozději do konce 2026 (a dále pravidelně) |
| 9 | Vendor governance a smluvní ošetření – zpracovatelské smlouvy, odpovědnost dodavatele, přenos dat mimo EU, připravenost na AI Act | Do konce 2026 |
| 10 | Funkční systém hlášení incidentů – jasný proces hlášení chyb a podezřelých výstupů AI, napojení na NIS2 | Do konce 2026 |
Pokud tyto domácí úkoly nejsou splněny, nejde o náhodu. Shadow AI se tak stává strukturální slabinou řízení.
Inovace vs. odpovědnost
Shadow AI není jen technologický trend. Je testem digitální dospělosti zdravotnických organizací. Technologie se nezastaví a tlak na jejich využívání poroste. Otázkou není, zda AI používat, ale zda ji řídit vědomě, bezpečně a transparentně. Pokud si nemocnice nechají vyrůst paralelní infrastrukturu mimo vlastní dohled, nejde už o inovaci. Jde o odpovědnost.
