digitalhealth.cz

Události, rozhovory, reportáže, studie a technologické novinky

Menu
  • AI a data
  • Software
  • Cyber Security
  • Interoperabilita
  • Události
  • Case study
  • Rozhovory
  • O nás
Menu

Shadow AI u poskytovatelů zdravotních služeb: Skryté kybernetické riziko

Posted on 24. 2. 2026

Umělá inteligence vlétla do zdravotnictví rychleji, než na to byly nemocnice, jejich IT oddělení i regulátoři připraveni. Zatímco se oficiálně schvalují strategie, směrnice a pilotní projekty, v každodenním provozu už běží něco jiného. V nemocnicích a ambulancích se nenápadně rozvíjí tichý, neformální a často neviditelný provoz generativní umělé inteligence. Vzniká paralelní svět takzvané shadow AI, tedy nástrojů používaných mimo dohled IT, vnitřních pravidel i vedení organizací.

Podle bezpečnostních expertů přitom nejde o okrajový jev. Jde totiž o jedno z nejzávažnějších kybernetických rizik současného zdravotnictví.

Co je Shadow AI

Shadow AI označuje používání nástrojů umělé inteligence bez vědomí nebo schválení vedení či IT oddělení. Nejčastěji jde o veřejně dostupné generativní aplikace, které zaměstnanci využívají při běžné práci. Nejde o experimenty nadšenců, ale o praktickou pomoc v každodenním provozu.

Typický scénář bývá nenápadný. Lékař potřebuje rychle shrnout dokumentaci, sestra upravit poučení pro pacienta, administrativní pracovník odpovědět na složitý e-mail. Veřejná AI je dostupná během několika sekund a šetří čas. V prostředí přetíženého zdravotnictví je taková pomoc lákavá.

Problém nastává ve chvíli, kdy se do těchto nástrojů dostanou zdravotní údaje nebo interní informace. Organizace ztrácí kontrolu nad tím, kde data končí, jak jsou zpracovávána a zda nejsou dále využívána. Z rychlé pomůcky se tak stává neviditelná infrastruktura, která obchází oficiální pravidla.

Shadow AI přitom nevzniká ze zlého úmyslu, ale z tlaku na výkon a rychlost. A právě proto ji nelze vyřešit pouhým zákazem.

Jaká rizika zůstávají pod povrchem

Největší problém Shadow AI není v tom, že existuje, ale v tom, že o ní často ti, co by měli vědět, neví. Použití veřejného nástroje se většinou neobjeví v nemocničních systémech ani v oficiální dokumentaci. Riziko tak vzniká tiše a mimo kontrolu.

První rovinou jsou data. Jakmile někdo vloží část zdravotnické dokumentace do veřejné AI, organizace ztrácí přehled o tom, kam se informace dostanou a jak budou dál využity. To může znamenat vážný problém z pohledu ochrany osobních údajů.

Druhou rovinou je obsah. AI dokáže vytvořit přesvědčivý text, který ale může být nepřesný nebo chybný. Pokud se bez kontroly dostane k pacientovi, může způsobit reálnou škodu.

A pak je tu dlouhodobý dopad. Shadow AI mění způsob práce a vytváří závislost na nástrojích, nad nimiž nemocnice nemá kontrolu. Nejde jen o jednotlivé chyby, ale o změnu, která probíhá bez jasných pravidel.

Jak dostat Shadow AI pod kontrolu bez udušení inovace

První reakcí na stínovou AI bývá zákaz. Zablokovat přístup, vydat přísný pokyn, pohrozit sankcemi. Je to pochopitelné, ale většinou to nefunguje. Pokud organizace nenabídne bezpečnou alternativu, zaměstnanci si cestu najdou. Prvním krokem proto není represe, ale přiznání reality. AI se už používá a cílem nemá být její potlačení, ale řízené zapojení do praxe. Dalším krokem je nastavit jasná a srozumitelná pravidla. Interní politika má vymezit povolené nástroje, zakázané postupy i odpovědnosti.

Současně je nutné nabídnout bezpečné a skutečně použitelné řešení. Pokud nemocnice poskytne oficiální nástroj, který funguje, potřeba obcházet pravidla výrazně klesne.

AI musí být součástí řízení rizik podle NIS2 a napojena na procesy kybernetické bezpečnosti. A bez kultury otevřenosti, kde se chyby hlásí bez strachu, zůstane Shadow AI dál ve stínu.

Česká reakce: metodický rámec místo zákazu

Na situaci reagovalo také Ministerstvo zdravotnictví ČR, které v červnu loňského roku vydalo  Metodický pokyn pro poskytovatele zdravotních služeb k využívání umělé inteligence. Dokument nestaví na restrikci, ale na odpovědném používání.

Základními principy jsou transparentnost, odpovědnost zdravotníka, ochrana osobních údajů, zabezpečení přístupů a zavedení mechanismu hlášení incidentů. AI má být podpůrným nástrojem, nikoli autonomním rozhodovatelem, a její použití má být dohledatelné.

Metodika vytváří důležitý základ. Sama o sobě však Shadow AI neeliminuje. Rozhodující bude způsob implementace.

Domácí úkoly pro poskytovatele zdravotních služeb

Jaké kroky by si měl poskytovatel splnit pro odpovědné používání AI? Rok 2026 bude testem připravenosti. Kombinace metodického rámce, AI Act, GDPR a implementace NIS2 znamená, že improvizace už nebude obhajitelná. Do konce roku 2026 by měl každý poskytovatel mít:

1.       Interní AI governance rámec

Poskytovatel musí mít schválenou interní politiku využívání AI, která vymezuje povolené nástroje, odpovědnosti a schvalovací procesy. Bez jasného rámce zůstává používání AI roztříštěné a rizika se přesouvají na jednotlivce místo organizace.

2.       Začlenění AI do risk managementu dle NIS2

AI musí být identifikována jako samostatná riziková oblast v rámci systému řízení kybernetických a provozních rizik. Pokud není AI součástí oficiální analýzy rizik, nelze prokázat, že organizace plní povinnosti odpovědného řízení podle NIS2.

3.       Posouzení povinnosti DPIA

Organizace musí formálně vyhodnotit, zda zavedení AI představuje nový způsob zpracování osobních údajů a zda vzniká vysoké riziko pro práva pacientů. Ignorování této povinnosti může znamenat, že provoz AI nemá dostatečnou právní oporu podle GDPR.

4.       Mapování datových toků

Je nutné detailně popsat, jaká data do AI vstupují, kde jsou zpracovávána a zda dochází k přenosu mimo EU. Transparentní znalost datových toků je klíčová pro smluvní ošetření i pro zvládnutí případného incidentu.

5.       Schválený a zabezpečený AI nástroj

AI by měla být provozována pouze v oficiálně schváleném prostředí s auditní stopou a řízeným přístupem. Používání veřejných nebo neschválených nástrojů zvyšuje riziko úniku dat i regulatorních sankcí.

6.       Dokončená DPIA (pokud je vyžadována)

Pokud analýza potvrdí vysoké riziko, musí být DPIA řádně zpracována a aktualizována při změně systému. Dokument musí prokazovat, že organizace rizika identifikovala a přijala konkrétní technická a organizační opatření. Pokud poskytovatel zdravotních služeb nemá DPIA, obtížně prokáže, že rizika systematicky vyhodnotil. V případě incidentu může její absence znamenat zásadní regulatorní slabinu.

7.       Transparentnost a auditovatelnost

Použití AI v klinických nebo administrativních procesech musí být dohledatelné a zpětně auditovatelné. Bez auditní stopy nelze vyhodnotit odpovědnost ani kvalitu výstupů.

8.       Pravidelné školení zaměstnanců

Zdravotníci a administrativní pracovníci musí rozumět limitům generativní AI, riziku halucinací i pravidlům práce s citlivými údaji. Školení je preventivní nástroj, který snižuje pravděpodobnost vzniku Shadow AI.

9.       Vendor governance a smluvní ošetření

Vztahy s dodavateli AI musí být smluvně jasně upraveny, včetně role zpracovatele, odpovědnosti za výstupy a podmínek přenosu dat mimo EU. Bez důkladné vendor governance nese většinu regulatorního rizika samotný poskytovatel zdravotních služeb.

10.   Funkční systém hlášení incidentů

Organizace musí mít jasně nastavený a důvěryhodný mechanismus hlášení chyb, podezřelých výstupů AI a bezpečnostních incidentů. Včasné hlášení umožňuje rychlou nápravu a může významně snížit dopady případného regulatorního řízení.

Úkoly a termíny najdete v přehledné tabulce

#Název a popis úkoluČasový milník
1Interní AI governance rámec – přijatá politika využívání AI, vymezení odpovědností, schvalovací procesy, role DPO a ITRozpracováno / schváleno nyní (Q1 2026)
2Začlenění AI do risk managementu dle NIS2 – AI identifikována jako riziková oblast, určen vlastník rizika, napojení na incident managementNyní (NIS2 již účinné)
3Posouzení povinnosti DPIA – formální vyhodnocení, zda AI představuje nový způsob zpracování OÚNyní (Q1–Q2 2026)
4Mapování datových toků – popis, kde a jak jsou data zpracovávána, přenosy mimo EU, role zpracovatelůNyní (Q1–Q2 2026)
5Schválený a zabezpečený AI nástroj – oficiální řešení s auditní stopou, řízenými přístupy a bezpečnostní architekturouDo 2. 8. 2026 (AI Act – high-risk systémy)
6Dokončená DPIA (pokud je vyžadována) – dokumentovaná rizika, právní základ, přijatá technická a organizační opatřeníDo 2. 8. 2026
7Transparentnost a auditovatelnost – dohledatelnost použití AI v klinické dokumentaci a možnost zpětného audituDo 2. 8. 2026
8Pravidelné školení zaměstnanců – školení o limitech AI, ochraně dat, halucinacích modelu a incident reportingNejpozději do konce 2026 (a dále pravidelně)
9Vendor governance a smluvní ošetření – zpracovatelské smlouvy, odpovědnost dodavatele, přenos dat mimo EU, připravenost na AI ActDo konce 2026
10Funkční systém hlášení incidentů – jasný proces hlášení chyb a podezřelých výstupů AI, napojení na NIS2Do konce 2026

Pokud tyto domácí úkoly nejsou splněny, nejde o náhodu. Shadow AI se tak stává strukturální slabinou řízení.

Inovace vs. odpovědnost

Shadow AI není jen technologický trend. Je testem digitální dospělosti zdravotnických organizací. Technologie se nezastaví a tlak na jejich využívání poroste. Otázkou není, zda AI používat, ale zda ji řídit vědomě, bezpečně a transparentně. Pokud si nemocnice nechají vyrůst paralelní infrastrukturu mimo vlastní dohled, nejde už o inovaci. Jde o odpovědnost.

Příspěvky

  • Shadow AI u poskytovatelů zdravotních služeb: Skryté kybernetické riziko
  • Generativní AI a duševní zdraví: po zjištěních Guardianu startuje globální vyšetřování
  • Česká republika disponuje funkčním a dynamickým ekosystémem VR/AR v medicíně, který propojuje výuku, rehabilitaci a výzkum
  • IT ve zdravotnictví 2026: Pozvánka na odbornou konferenci – 26. února
  • Evropský HealthTech na prahu roku 2026: experimenty končí, rozhoduje praxe

VÍTEJTE
Vítejte na blog magazínu Digital Health, kde se zaměřujeme na digitální inovace v oblasti zdravotnictví. Sdílíme novinky, rozhovory, trendy a události týkající se telemedicíny, umělé inteligence ve zdravotnictví a dalších digitálních nástrojů.

O NÁS
Cílem našeho blogu je podělit se se čtenáři o informace z transformace zdravotní péče pomocí moderních technologií. Přidejte se k nám, abyste objevili, jak digitální revoluce mění budoucnost zdravotnictví a zlepšuje péči o naše zdraví.

KONTAKTY
Petr Moláček
petr.molacek(at)digitalhealth.cz

Martin Doležal
martin.dolezal(at)digitalhealth.cz

©2024 digitalhealth.cz