Lékař na pohotovosti napsal propouštěcí zprávu přes ChatGPT. Nemocnice musela vysvětlovat, co se vlastně stalo
V propouštěcí dokumentaci 14leté pacientky z dětské pohotovosti zůstal text, který tam neměl co dělat: nabídka chatbota připravit „lepší rozhovor po úrazu hlavy u dítěte“.
Obsah článku
Screenshot se objevil v jedné z veřejných facebookových skupin věnovaných ChatGPT a během hodin se rozjela debata, které si nemohla nevšimnout ani Wojewódzki Szpital Dziecięcy w Bydgoszczy. Vedení nemocnice 18. března 2026 odpovídalo na dotazy redakce Android.com.pl a vzápětí i televiznímu štábu TVN24. Případ přitom nestojí na tom, že by umělá inteligence diagnostikovala nebo léčila. Stojí na jednom odstavci, který lékař rezident zapomněl smazat, a na otázce, kde přesně končí neškodná jazyková pomoc a začíná problém.
Tři věty, jeden zapomenutý dovětek
Nemocnice ve své odpovědi potvrdila pravost dokumentu a popsala, co se stalo: službu konající rezident použil spotřebitelskou verzi ChatGPT k jazykové korekci tří vět z anamnézy. Chatbot text upravil, ale přidal typický dovětek: „Pokud chcete, mohu také připravit komplexnější rozhovor poté, co dítě utrpělo poranění hlavy…“ tedy nabídku, že může připravit podrobnější rozhovor po úrazu hlavy u dítěte, pravděpodobně se zákonnými zástupci. Právě tato věta zůstala ve finální dokumentaci a dostala se k rodičům pacientky.
Zástupkyně ředitelky Danuta Kurylak pro TVN24 uvedla, že nešlo o „ledajaké pochybení“: pacientka byla konzultována dětským chirurgem, diagnostika i léčba proběhly standardně a rezident se opíral o nemocniční formuláře. ChatGPT podle nemocnice nedostal žádná data umožňující identifikaci dítěte. Sloužil prý jen jako korektorský nástroj.
Jenže právě ta zapomenutá věta proměnila interní pracovní postup ve veřejnou kauzu. Dokument, který má podle polského ombudsmana pro práva pacientů věrně odrážet skutečný průběh diagnostiky a léčby, najednou obsahoval strojový text, který s péčí o konkrétní dítě neměl nic společného.
Co říká polský úřad na ochranu dat
Polský UODO se k případu vyjádřil opatrně, ale srozumitelně. GDPR samo o sobě nezakazuje používání konkrétních nástrojů ani technologií. Rozhodující je, zda při práci s nimi dochází ke zpracování osobních údajů, jaké riziko to přináší a jaká opatření správce nastavil.
Klíčové body stanoviska UODO:
- Správce musí předem provést analýzu rizik a zavést adekvátní technická i organizační opatření podle článku 32 GDPR.
- Nestačí mít papírové procedury, jejich účinnost je třeba pravidelně testovat a vyhodnocovat.
- U veřejných nástrojů AI je nutné zohlednit riziko, že model data zpřístupní dalším subjektům; preferovaná je uzavřená infrastruktura.
- Bez formálního řízení úřad nehodlá říkat, zda v tomto konkrétním případě došlo k porušení předpisů.
Nemocnice tvrdí, že citlivá data do ChatGPT nevložila. Technický audit ale nezveřejnila. U spotřebitelské verze ChatGPT přitom platí, že OpenAI může obsah konverzací využívat ke zlepšování modelů, pokud uživatel aktivně neprovede opt-out nebo nepoužije dočasný chat. Záruka nemocnice je tak spíše výsledkem interního rozhovoru s rezidentem než veřejně ověřitelným důkazem.
Kde leží hranice mezi korekturou a klinikou
Evropská komise ve svém vodítku k medicínskému softwaru rozlišuje dvě kategorie. Software, který data pouze ukládá, archivuje nebo komunikuje, má jiný regulační profil než software, který s daty pracuje ve prospěch konkrétního pacienta, tedy navrhuje diagnózu, triáž nebo léčebný postup.
Jazyková korektura tří vět spadá do první kategorie. Administrativní pomůcka, redakční asistence. Problém ale nastává ve chvíli, kdy se hranice rozostří: co když lékař do promptu vloží symptomy a chatbot vrátí formulaci, která ovlivní zápis diagnózy? Co když AI „uhladí“ popis stavu tak, že změní jeho klinický význam?
Bydgoszczský případ zůstal na bezpečné straně hranice, pokud nemocniční verze odpovídá realitě. Ukázal ale, jak snadno se pracovní nástroj promítne do finálního dokumentu, který má právní váhu a na který se spoléhají další lékaři v řetězci péče.
Česko: testuje se hodně, pravidla se teprve píšou
Polský incident má přímou relevanci i pro české zdravotnictví. Podle národního průzkumu ministerstva zdravotnictví AI využívá nebo alespoň testuje 67,6 % respondentů z řad zdravotnických zařízení. Nejsilnější pozici má radiologie, ale ministerstvo zmiňuje i administrativu a plánování péče, tedy přesně oblast, do které spadá i psaní propouštěcích zpráv.
V Polsku přitom AI zavedlo zatím jen 9 % zkoumaných zařízení podle reportu pro platformu ZnanyLekarz z podzimu 2025. Metodiky obou průzkumů nejsou totožné, ale české zdravotnictví působí výrazně dál, minimálně ve fázi pilotů.
Regulatorní situace v Česku ovšem připomíná mozaiku bez jednotného manuálu:
- GDPR a zákon o kyberbezpečnosti pokrývají ochranu dat.
- U AI klasifikované jako zdravotnický prostředek platí režim SÚKL a evropské nařízení MDR/IVDR.
- Postupně se implementuje AI Act.
- Ministerstvo teprve připravuje metodický pokyn a resortní strategii, jejíž prezentace je plánována až na konec roku 2026.
Jednotný centrální schvalovací režim pro všechny systémy AI ve zdravotnictví mimo zdravotnické prostředky v Česku neexistuje. Riziko podobného incidentu je tedy reálné. Ne proto, že by chyběly zákony, ale proto, že chybí jednoduchý návod, který by lékař na noční směně dokázal aplikovat dřív, než otevře prohlížeč.
Nemocnice slibuje systém, ne zákaz
Bydgoszczská nemocnice incident neuzavřela jen omluvou. Ve své odpovědi spojila budoucí zavádění AI s procedurami dohledu a s projektem digitální transformace financovaným z polského Krajowego Planu Odbudowy. Jinými slovy: neslíbila, že AI zakáže, ale že pro ni vytvoří pravidla.
To je pravděpodobně nejrealističtější přístup. Administrativní zátěž na urgentních příjmech je dokumentovaný problém a nástroje AI pro dokumentaci patří mezi nejčastější případy použití v polském i českém prostředí. Zakázat lékaři, aby si nechal zkontrolovat gramatiku, by bylo absurdní. Nezakázat mu, aby to dělal přes veřejný chatbot bez jakýchkoli pravidel, je ale taky neudržitelné.
Celý případ nakonec shrnuje jedna zapomenutá věta v propouštěcí zprávě čtrnáctileté dívky. Chatbot nabídl, že může připravit víc. Lékař tu nabídku nesmazal. A systém, který měl zajistit, že se něco takového nestane, v tu chvíli ještě neexistoval.