Pentagon se blíží k ovládání zbraní umělou inteligencí

Datum 09.10.2021

Foto: CanStock

V srpnu se jižně od Seattlu vzneslo na oblohu a zaplavilo silnice několik desítek vojenských dronů a pozemních robotů. Jejich úkolem bylo najít teroristy schovávající se v úkrytech mezi budovami. Do samotné akce bylo zapojeno tak velké množství robotů vybavených umělou inteligencí, že nebylo v silách lidského operátora dohlížet na všechny. Úkol zněl, aby v případě potřeby našli a zlikvidovali nepřátelské bojovníky.

Mise byla pouhým cvičením organizovaným Agenturou pro pokročilé obranné výzkumné projekty, nebo-li zkráceně DARPA, což je výzkumná divize Pentagonu. Roboti byli při těchto manévrech vyzbrojeni pouhými rádiovými vysílači určenými k simulaci interakce jak s přátelskými, tak i nepřátelskými roboty.

Cvičení bylo jedním z několika, které se uskutečnily s cílem otestovat, jak by umělá inteligence mohla pomoci rozšířit využití automatizace ve vojenských systémech, a to i ve scénářích, které jsou příliš složité a rychlé na to, aby člověk mohl stát za každým důležitým rozhodnutím. Tato cvičení také odrážejí nenápadný posun v uvažování Pentagonu o autonomních zbraních, protože je stále jasnější, že stroje mohou překonat člověka při analýze složitých situací nebo při velmi rychlých vojenských operacích.

Generál John Murray z US Army Futures Command minulý měsíc na půdě Vojenské akademie USA prohlásil, že roje robotů donutí vojenské plánovače, politiky a celou společnost přemýšlet o tom, zda by v nových autonomních systémech měl o použití smrtící síly rozhodovat člověk.

Postoje dalších vojenských velitelů rovněž naznačují zájem o větší akceschopnost autonomních zbraňových systémů. Na konferenci o umělé inteligenci ve vojenském letectvu, která se konala minulý týden, Michael Kanaan, ředitel operací Air Force Artificial Intelligence Accelerator na MIT a přední představitel zavádění umělé inteligence v americké armádě uvedl, že se myšlení vyvíjí. Podle něj by AI měla provádět větší množství identifikací a rozlišování potenciálních cílů, zatímco lidé budou činit rozhodnutí na vyšší úrovni. “Myslím, že právě k tomu směřujeme,” říká Kanaan.

Zpráva Národní bezpečnostní komise pro umělou inteligenci (NSCAI), poradní skupiny vytvořené americkým Kongresem, minulý měsíc mimo jiné doporučila, aby se USA postavily výzvám k mezinárodnímu zákazu vývoje autonomních zbraní.

Timothy Chung, programový manažer DARPA odpovědný za projekt swarmingu říká, že letní cvičení měla za cíl prozkoumat, kdy by měl a kdy by neměl lidský operátor dronů převzít rozhodnutí za jejich autonomní systémy. Například když čelí útokům na několika frontách, může někdy lidská kontrola stát v cestě úspěšné misi, protože lidé nejsou schopni reagovat dostatečně rychle. “Ve skutečnosti si systémy mohou vést lépe, když do nich nikdo nezasahuje,” říká Chung.

Dronům a pozemním robotům byl zadán celkový cíl a následně algoritmy umělé inteligence navrhly plán, jak tohoto cíle dosáhnout. Některé z nich obklíčily budovy, zatímco jiné prováděly průzkum. Několik jich bylo zničeno simulovanými výbušninami; některé identifikovaly majáky představující nepřátelské bojovníky a rozhodly se zaútočit.

USA a další státy používají autonomii ve zbraňových systémech již dlouhou dobu. Některé střely mohou například autonomně identifikovat a zaútočit na nepřítele v dané oblasti. Rychlý pokrok v algoritmech umělé inteligence však změní způsob, jakým armáda tyto systémy využívá. Hotový kód umělé inteligence schopný ovládat roboty a identifikovat orientační body a cíle, často s vysokou spolehlivostí, umožní nasazení většího počtu systémů v širším spektru situací.

Jak ale ukazují současné cvičení dronů, širší využití umělé inteligence v bojové akci ztěžuje a v mnoha případech často eliminuje roli člověka v rozhodovacím procesu. To se může ukázat jako problematické, protože technologie AI může skrývat předsudky nebo se časem chovat i nepředvídatelně. Zrakový algoritmus vycvičený k rozpoznání konkrétní uniformy se může omylem zaměřit na někoho, kdo má na sobě podobné oblečení. Chung říká, že projekt swarm předpokládá, že se algoritmy AI zdokonalí do té míry, že budou schopny identifikovat nepřátele s dostatečnou spolehlivostí, aby se jim dalo věřit.

Použití umělé inteligence ve zbraňových systémech se v posledních letech stalo velmi kontroverzním tématem. Společnost Google čelila v roce 2018 protestům zaměstnanců a protestům veřejnosti poté, co dodala technologii umělé inteligence letectvu v rámci projektu známého jako Maven.

Projekt je do jisté míry součástí dlouhé historie autonomie zbraňových systémů, kdy některé rakety již byly schopny plnit omezené mise nezávisle na lidské kontrole. Ukazuje však také, jak nedávný pokrok v oblasti umělé inteligence učiní tuto autonomii atraktivnější a v určitých situacích nevyhnutelnou. Navíc poukazuje na důvěru, která bude vkládána do technologií, jež se stále mohou chovat nepředvídatelně.

Richard Papen
zdroj: Militaryaerospace, DARPA

Volty 700 x 200 px

Komentáře