Válka na Ukrajině nebo nedávná americká operace ve Venezuele. To jsou dva příklady vojenských konfliktů, ve kterých hrála či hraje roli umělá inteligence. Podle expertů má potenciál změnit konvenční válku nejvíc za posledních 300 let. Jaké je ale její využití? A kdo je aktuálně lídrem implementace umělé inteligence do armády?
Americká armáda při operaci ve Venezuele podle Wall Street Journal využila AI model Claude od společnosti Anthropic. Akce skončila pro USA úspěchem, tedy zadržením prezidenta Madura.
Nyní se ale opět debatuje o tom, jakou roli v ní umělá inteligence hrála. K čemu přesně americká armáda model Claude použila, se neví, ale zdaleka to není ojedinělý případ použití AI ve vojenské operaci.
„Myslím, že všechny velké, technologicky vyspělé armády světa – americká, izraelská, ukrajinská, ruská, armády evropských států – pracují nějakým způsobem s využitím umělé inteligence pro obranné i útočné účely,“ říká pro Český rozhlas Petr Koubský, technologický expert Deníku N.
Co je zač Palantir?
Fenoménem na poli umělé inteligence se v posledních letech stala společnost Palantir, která je přes spolumajitele Petera Thiela napojená i na špičky americké administrativy.
Palantir se specializuje na analýzu velkých dat, takže jeho modely jsou například schopné rozpoznat v davu lidí potenciální cíle. Jeho služby kromě armády využívá například i celní správa, a tak má u mnoha Američanů nechvalnou pověst. A právě Palantir zprostředkoval využití modelu Claude ve Venezuele.
Největší revoluce od Napoleona
A jak tedy vypadá využítí umělé inteligence v armédě konkrétně? Například prostřednictvím takzvaných AI agentů. Vyspělé programy, které jsou schopny jednat a rozhodovat autonomně, nacházejí své využití ve velitelských štábech. Podle webu The Conversation můžou změnit fungování velitelství armády nejvíc od dob Napoleona.
Dnešní velitelské struktury podle autorů článku stále odrážejí Napoleonovo polní velitelství jak formou, tak funkcí. V průběhu času se tyto štáby rozrostly, což prý ještě ztěžuje jejich koordinaci.
Velitelská stanoviště navíc bývají rozlehlá a moderní přesná dělostřelecká zařízení, rakety a drony na ně mohou účinně zamířit, a tím také elektronickou válku snadno narušit, píše Conversation. Velmi dobře je tato slabina vidět v současné rusko-ukrajinské válce, kde se stávají statická velící centra agresora často cílem přesné palby Ukrajiny.
Drony a video
Ve válce na Ukrajině už ale AI také hraje velkou roli. Ať už to jsou umělou inteligencí ovládané drony nebo hledání a analyzování potenciálních cílů. „Naše armáda každý měsíc dostává víc než 50 tisíc videozáznamů z frontové linie, které analyzuje umělá inteligence," říká pro BBC náměstek ukrajinského ministra obrany Jurij Myronenko.
Mění se ale taky samotné bojiště. Ukrajinské jednotky už podle BBC používají software založený na umělé inteligenci, díky kterému se drony zaměří na cíl a pak autonomně letí posledních několik set metrů v bezpilotním režimu.
Rušení signálu je u nich nemožné a sestřelit tak malý létající objekt není snadné. Očekává se, že se tyto systémy nakonec vyvinou v plně autonomní zbraně, které budou schopny samy vyhledávat a ničit cíle.
Etická stránka
I ve vojenských konfliktech logicky vyvstávají etické otázky, jak bude AI využívána. Ukrajinský prezident Volodymyr Zelenskyj minulý měsíc varoval OSN, že umělá inteligence přispívá k „nejničivějšímu zbrojnímu závodu v historii lidstva“.
Vyzval k vytvoření globálních pravidel pro používání umělé inteligence ve zbraních a uvedl, že tato otázka je stejně naléhavá jako zabránění šíření jaderných zbraní.
Nechceme válčit
Již zmíněný Anthropic se prezentoval tím, že sice má kontrakty s americkou administrativou, ale chce využívat chatbot Claude jen k mírovým účelům.
Po útoku ve Venezuele se vedení společnosti nepohodlo s prezidentem Trumpem s tím, že nechce, aby byl Claude využíván k masovému sledování domácností a vyvíjení zbraňových systémů. Americké ministerstvo obrany kvůli tomu označilo Anthropic za bezpečnostní riziko.
Největší hrozby
OSN ve své zprávě z října 2025 shrnula zásadní rizika do několika bodů. AI je podle ní spolehlivá pouze do té míry, do jaké jsou spolehlivá její data. Pokud se systém AI při trénování dat nesetká s určitým scénářem, může v reálném světě reagovat nepředvídatelně.
Zaujaté algoritmy tak mohou například civilisty mylně identifikovat jako bojovníky. AI by mohla také podle OSN urychlit dynamiku konfliktu. Zvyšuje se tak riziko bleskových válek, v nichž algoritmická eskalace prohlubuje krizi dříve, než mohou zasáhnout lidé.
Rozhodnutí o životě a smrti
Je také nejasné, kdo nese odpovědnost za činy autonomních systémů. Mezinárodní právo stanovuje odpovědnost států a jednotlivců.
„Osud lidstva nelze ponechat na algoritmu,“ varoval generální tajemník António Guterres na zářijové veřejné debatě Rady bezpečnosti o umělé inteligenci a mezinárodním míru a bezpečnosti. „Pravomoc nad rozhodnutími o životě a smrti vždy musí zachovat lidé,“ uzavřel.