Odborníci varují, že integrace umělé inteligence do vojenských systémů by mohla zvýšit riziko nekontrolované jaderné eskalace.
Pokrok umělé inteligence a její využití v každodenním životě již vyvolává debaty o etice, kontrole a bezpečnosti. Když se však přenese do vojenské sféry, obavy se znásobí. Stále více odborníků na jadernou bezpečnost varuje, že by se umělá inteligence mohla stát spouštěčem rozsáhlého konfliktu, a to i jaderného.
Důvod je jasný: závod o integraci algoritmů do prakticky všech úrovní vojenského rozhodování vytváří nebezpečný „kluzký svah“. Riziko nespočívá jen v tom, že by automatizovaný systém mohl mít přístup k dodávkám jaderných zbraní, ale i v tom, že by sami vysocí důstojníci mohli příliš důvěřovat doporučením umělé inteligence a jednat podle nich.
AI, která konflikty eskaluje, ale neochlazuje je
Výzkumníci, jako je Jacquelyn Schneiderová ze Stanfordovy univerzity, testovali, jak systémy AI reagují ve válečných simulacích. Výsledek neponechává žádný prostor pro uklidnění: ve většině případů mají algoritmy tendenci eskalovat konflikty do katastrofických úrovní, kterým by se lidé pravděpodobně vyhnuli.

Zdroj: Youtube.com
„Je to, jako by umělá inteligence rozuměla eskalaci, ale ne deeskalaci,“ shrnuje Schneiderová. A tento vzorec se opakuje stále dokola, což posiluje pocit, že ani plně nerozumíme tomu, jak tyto modely vnitřně fungují, natož jak by reagovaly ve skutečném scénáři mezinárodní krize.
Navzdory tomu, co je v sázce, odborníci, jako je Jon Wolfsthal z Federace amerických vědců, obviňují Pentagon, že neexistuje žádný jasný návod, jak by se umělá inteligence měla (nebo neměla) používat v systémech řízení jaderných zbraní a komunikace.
Oficiálně americká vláda trvá na tom, že v rozhodovacím řetězci bude vždy přítomen člověk. Tlak ze strany zemí, jako je Rusko a Čína, které rovněž začleňují umělou inteligenci do svých vojenských struktur, by však mohl tento závazek časem narušit. V konečném důsledku panují obavy, že uprostřed krize chybná interpretace nebo chybný pokyn algoritmu spustí řetězovou reakci s nevratnými následky.
Hrozba, která se již nezdá být science fiction
Nejvíce znepokojující je, že to, co se dříve zdálo jako scénář science fiction, je nyní vnímáno jako možný scénář. Odborníci připomínají systémy, jako byla sovětská „mrtvá ruka“, navržená tak, aby automaticky reagovala na jaderný útok, a obávají se, že umělá inteligence tuto logiku posune o krok dál.
Skutečně se již našli tací, kteří tuto situaci přirovnávají k vesmíru Terminátora nebo ke stroji soudného dne ve filmu „Divnoláska aneb Jak jsem se naučil nedělat si starosti a mít rád bombu“. Rozdíl je v tom, že tentokrát se nejedná o film, ale o politická a technologická rozhodnutí, která se přijímají právě teď. Závěr odborníků je jednomyslný a zcela jasný: bez přísné a konsenzuální regulace by se umělá inteligence aplikovaná na jaderné odstrašování mohla stát největším existenčním rizikem naší éry.
Význam regulace a etiky ve vojenské umělé inteligenci
Pro zmírnění těchto rizik je zásadní, aby vlády a mezinárodní organizace zavedly jasné a účinné předpisy týkající se používání AI ve vojenském kontextu. Etika musí být ústředním prvkem při vývoji a zavádění těchto technologií. Instituce, jako je OSN, již diskutují o rámcích pro kontrolu autonomních zbraní, ale pokrok je pomalý a je zapotřebí rozhodnějších a koordinovanějších kroků.
Kromě toho je při vývoji vojenské umělé inteligence nezbytná transparentnost. Státy musí sdílet informace o svém pokroku a spolupracovat na stanovení mezinárodních standardů, které by zabránily zneužití těchto technologií. To pomůže nejen zabránit technologickým závodům ve zbrojení, ale také vybudovat důvěru mezi národy.
Umělá inteligence sice nabízí významné příležitosti ke zlepšení bezpečnosti a efektivity armády, ale zároveň přináší kritické výzvy, které je třeba urychleně řešit. Mezinárodní společenství musí spolupracovat, aby zajistilo, že tyto výkonné nástroje budou používány zodpovědně a bezpečně.