Vybrané články
z týdeníku The Economist

Agent 00000111

Špioni vkládají velké naděje do strojového učení a umělé inteligence. Není to poprvé.

Agent 00000111
ilustrační foto | Profimedia.cz

V používání umělé inteligence (AI) nejsou výzvědné služby žádnými nováčky. Za studené války zkoušely americký NSA a britský GCHQ s její pomocí přepisovat a překládat ohromné množství sovětských telefonních hovorů, které začaly shromažďovat v 60. a 70. letech.

Tenkrát však byla tato technologie ještě v plenkách. Jeden bývalý evropský zpravodajec nedávno připustil, že jeho služba nepoužívala automatické přepisy a překlady ještě ani po roce 2000 v Afghánistánu a musela se spoléhat na místní tlumočníky. Dnes by na tom mohli být vyzvědači lépe. Ze stejných důvodů, díky nimž je umělá inteligence v posledních letech čím dál tím atraktivnější pro byznys – víc dat, lepší algoritmy i mnohem větší výpočetní kapacita –, s ní mají velké plány i zpravodajské služby.

Na konci února publikoval GCHQ analýzu, která zkoumala, jak by AI mohla změnit jeho práci. „Strojová asistence při ověřování faktů“ může pomoct při rozpoznávání falšovaných snímků, ověřování dezinformací v důvěryhodných zdrojích a vyhledávání botů na sociálních sítích, které je šíří. AI může bránit kybernetickým útokům „analyzováním vzorců aktivit na sítích a v přístrojích“ a také pomáhat při boji s organizovaným zločinem rozpoznáváním podezřelých řetězců finančních transakcí.

Revoluce ve službách

Možnosti umělé inteligence už názorně předvedly jiné, podstatně menšími prostředky disponující organizace. Americká nevládní organizace Nuclear Threat Initiative nedávno nasadila strojové učení na veřejně přístupné údaje z obchodních rejstříků a odhalila do té doby neznámé společnosti a organizace zapojené do nelegálního obchodu s materiály využitelnými pro výrobu jaderných zbraní. Výzvědné služby se přitom nemusejí omezovat jen na veřejně dostupná data.

Někteří doufají, že i relativně umírněné nasazení umělé inteligence v kombinaci se schopností zpravodajců získávat soukromé informace vytvoří něco opravdu velkého. „AI vyvolá revoluci ve fungování tajných služeb,“ hlásá zpráva, kterou 1. března zveřejnila americká Národně bezpečnostní komise pro umělou inteligenci, což je velmi vlivná studijní skupina vedená bývalým výkonným ředitelem Alphabetu Erikem Schmidtem a bývalým náměstkem ministra obrany Bobem Workem.

Zpráva rozhodně nepostrádá ambice. Sedmnáctka amerických výzvědných služeb by podle ní měla do roku 2030 vybudovat „sjednocenou architekturu nepřetržitě se učících analytických strojů“ schopných zpracovat cokoli od informací od „lidských“ agentů po satelitní snímky a díky tomu předvídat hrozby. Komise se mimo jiné pochvalně zmiňuje o reakci Pentagonu na covid-19, při níž se díky propojení desítek datových sad podařilo identifikovat ohniska nákazy a zajistit včasné dodávky zdravotnického materiálu.

Pět očí na cloudu

Ovšem to, co je možné ve zdravotnictví, se nedá vždy uplatnit při ochraně národní bezpečnosti. Západní zpravodajské služby musejí dodržovat zákony na ochranu soukromých údajů, které určují, jak smějí data získávat a používat. Britský GCHQ ve své studii ujišťuje, že bude brát v potaz systémová zkreslení, jako když je třeba software na rozpoznávání hlasu u některých skupin obyvatelstva účinnější než u jiných, a bude otevřeně přiznávat možné odchylky a neznámé ve svých algoritmech. Američtí vyzvědači volí vágnější formulaci, když pouze slibují, že budou respektovat „lidskou důstojnost, práva a svobody“.

Tyto rozpory bude třeba vyřešit. Expertní skupina bývalých amerických zpravodajských důstojníků před nedávnem pod záštitou washingtonského think-tanku Center for Strategic and International Studies (CSIS) navrhla, aby anglofonní aliance zpravodajských služeb zvaná „Pět očí“, do níž vedle USA patří ještě Británie, Austrálie, Kanada a Nový Zéland, shromažďovala data ve sdíleném cloudovém úložišti.

Využití AI pro špionáž dnes nicméně brání spíš praktické než etické problémy. Strojové učení dokáže účinně odhalovat vzorce – například při používání mobilních telefonů –, ale nedaří se mu předvídat individuální jednání. To platí zejména při nedostatku dat, což je případ protiteroristických operací. Prediktivní modely nasazení policejních složek mohou pracovat s daty z tisíců vloupání ročně. Teroristické útoky jsou mnohem vzácnější, a proto pro počítače obtížněji předpověditelné.

Ona vzácnost vytváří další problém, podobný tomu, jaký řeší doktoři, když vymýšlejí programy masového testování na vzácné choroby. Každý prediktivní model bude generovat falešně pozitivní výsledky, kvůli čemuž budou nevyhnutelně vyšetřováni zcela nevinní lidé. Zpřesnění algoritmů může množství falešně pozitivních výsledků snížit. Ale protože jsou „základní hodnoty“ ještě nižší – teroristů je naštěstí jen velmi málo –, může i propracovaný systém posílat spoustu špionů po úplně falešných stopách.

Další problém je, že spoustu dostupných informací nepůjde použít. Například data z kamer na dronech, ze špionážních satelitů nebo odposlechnutých telefonních hovorů se dnes neukládají v takových formátech a s takovým označením, aby se dala použít při strojovém učení. Napravit to bude „únavné, časově náročné a budou to muset udělat hlavně lidé, situaci navíc komplikuje fakt, že standardy označování se liší úřad od úřadu a někdy i v rámci jedné agentury“, uvádí zpráva CSIS. A to asi není práce, kvůli níž někdo vstoupil do tajných služeb.

© 2021 The Economist Newspaper Limited
All rights reserved. Publikováno na základě licence s The Economist, přeloženo týdeníkem Hrot.
Originální článek v angličtině najdete na www.economist.com.

Článek vyšel v tištěném vydání týdeníku Hrot.

Týdeník hrot

  • Zdeněk Tůma: S bazukou se musí umět
  • Přežijí komunisté stovku?
Objednat nyní