Stovky zkorumpovaných policistů odhaleny. Lidé umělou inteligenci nesnáší, ale prokázala velkou službu jim i státu
Londýnská policie za jediný týden odhalila stovky podezřelých signálů ve vlastních řadách. Stačilo propojit data, která už dávno měla, jen je nikdo neuměl přečíst najednou.
Obsah článku
Metropolitan Police Service, největší policejní sbor Spojeného království se 43 tisíci zaměstnanci, 24. dubna 2026 oznámila výsledky pilotního nasazení softwaru americké firmy Palantir. Během sedmi dnů systém protřídil interní záznamy o směnách, docházce, přístupech do IT systémů i personálních deklaracích a vytáhl z nich obraz, na jehož složení dosavadní mechanismy potřebovaly měsíce až roky. Nejde o příběh o umělé inteligenci, která rozhodla o vině. Jde o příběh instituce, která poprvé pustila strojové třídění proti vlastním lidem a okamžitě viděla, co jí roky unikalo.
Co přesně Palantir za týden našel
Čísla, která Met zveřejnila, nejsou jen o korupci v klasickém slova smyslu. Rozpadají se do několika kategorií:
- 98 policistů posuzovaných pro pochybení nebo hrubé pochybení, kteří manipulovali se systémem rozpisu směn k osobnímu či finančnímu prospěchu.
- Přibližně 500 preventivních upozornění u dalších zaměstnanců ve stejném směnovém systému.
- 42 seniorních vedoucích prověřovaných kvůli závažnému porušování pravidel hybridní práce.
- 12 policistů vyšetřovaných pro hrubé pochybení kvůli neohlášenému členství ve svobodném zednářství. To samo o sobě není trestné, ale od prosince 2025 jde o deklarovatelnou asociaci, jejíž zatajení vyvolává pochybnosti o nestrannosti.
- Dvě zatčení a dvě oznámení o vyšetřování v samostatné větvi závažné kriminality. Met jmenuje zneužití pravomoci k sexuálním účelům, podvody, sexuální napadení a zneužití policejních systémů. Další zatčení mají následovat.
Klíčové je, co Met sama zdůraznila: veškerá data, která systém analyzoval, sbor již legálně držel. Automatizace podle oficiálního vyjádření „podporuje analýzu a práci s informacemi, ale nenahrazuje profesní úsudek“. Žádný algoritmus nikoho neodsoudil. Označil vzorce a lidé rozhodují dál.
Proč to trvalo tak dlouho bez AI
Met není sbor, který by problémy ignoroval. Od března 2023 běžela operace Assure zaměřená na propojování rozptýlených informací o pochybeních. Za 18 měsíců vedla k 96 odchodům po odebrání bezpečnostní prověrky. Širší čistka posledních tří let přesáhla 1 500 odchodů zaměstnanců a policistů, kteří nesplňovali standardy.
Jenže ruční vyhodnocování naráží na fyzický limit. Data o směnách žijí v jednom systému, přístupy do databází v jiném, personální deklarace ve třetím. Člověk dokáže sledovat jednu stopu. Palantir, firma, která od roku 2003 staví platformy pro sjednocení roztříštěných dat, dokáže projít miliony záznamů a hledat korelace, které by analytik objevil za měsíce, pokud vůbec.
Výsledek pilotu mluví jasně: jeden týden versus osmnáct měsíců. A to ještě nejde o konečný verdikt, jde teprve o prvotní signály k prověření.
Proč veřejnost AI přesto nevěří
Průzkum Pew Research z dubna 2025 ukázal, že 43 % dospělých Američanů čeká od AI spíše osobní škodu než přínos. Dvě třetiny mají silné obavy z nepřesných informací. KPMG uvádí, že AI akceptuje nebo schvaluje jen 54 % respondentů, přičemž přínosy přehlušuje vnímaná hrozba.
Obavy nejsou iracionální. Bias, chyby, zneužití dat, nahrazování lidského úsudku, to jsou reálná rizika. Ale londýnský pilot ukazuje specifický scénář, kde se rovnice obrací: AI nesleduje občany, sleduje instituci zevnitř. Nerozhoduje o trestu, třídí podněty. A její výstupy míří proti těm, kdo mají moc, ne proti těm, kdo ji nemají. Právě takové nasazení může paradoxně důvěru v technologii budovat, protože slouží veřejnému zájmu viditelným způsobem.
Pojistky proti zneužití
Palantir ve svém dokumentu o ochraně soukromí popisuje vrstvu technických záruk: auditní logy, které nelze zpětně mazat, přístupy omezené podle role a účelu, šifrování citlivých polí, kontrolní body vyžadující zdůvodnění před každou citlivou akcí a automatické zásady mazání. Jde o deklaraci výrobce, ne o automatickou garanci praxe u každého zákazníka. Ale v kombinaci s institucionální pojistkou Met, tedy lidským přezkumem každého signálu, vzniká dvojitá brzda.
Pro srovnání: britský NHS používá Palantir pro řízení zdravotní péče a výslovně uvádí, že firma nemůže data komercializovat ani na nich trénovat vlastní modely. Stát si správu dat vyjednává smluvně, ne slepou důvěrou.
Mohl by podobný systém fungovat v Česku?
Policie ČR má od roku 2025 vlastní Oddělení digitalizace a umělé inteligence a interní pokyn policejního prezidenta o využívání AI. Připravuje hodnocení dopadů na lidská práva. Národní strategie AI 2030 počítá s rozšířením technologie ve veřejné správě a vládní průvodce z dubna 2026 opakuje princip: AI má lidský úsudek doplňovat, nikoli nahrazovat.
Veřejně popsaný interní protikorupční pilot srovnatelný s londýnským v českém prostředí zatím neexistuje. Politická vůle pro AI ve státní správě je doložitelná, vůle pro represivní interní monitoring dosud veřejně formulována nebyla. Technicky nic nebrání nasazení podobného nástroje kdekoli, kde instituce drží velké objemy strukturovaných dat a čelí tlaku na auditovatelnost. Politicky je průchodnost podmíněna jasnými pravidly přístupu a nezávislým dohledem.
Londýnský pilot nepředstavuje utopii ani dystopii. Představuje moment, kdy instituce s chronickým problémem důvěry sáhla po nástroji, který jí za sedm dní ukázal víc než roky interních kontrol. Co s tím udělá a kdo bude hlídat, že stejný nástroj nezamíří jinam, rozhodne o tom, zda se z pilotu stane standard.