THE WARSAW INSTITUTE REVIEW

Data: 24 września 2018    Autor: Maciej Zając

Rewolucja Robotyczna w Wojskowości a Polska Strategia Bezpieczeństwa Narodowego

Technologie robotyczne i Sztuczna Inteligencja zmienią pola bitew nie do poznania –twierdzą jednym głosem eksperci z Chin, Rosji i USA. Trzy mocarstwa angażują się coraz mocniej w wyścig zbrojeń, efektem którego ma być postępująca robotyzacja i algorytmizacja operacji militarnych.

Geneva, Szwajcaria, 13 listopada 2006 r. Francois Rivasseau z Francji, Przewodniczący Trzeciej Konferencji Przeglądowej nt. Rozbrojenia Państw-Stron Konwencji o ograniczeniu użycia pewnych broni konwencjonalnych oraz Nobuaki Tanaka z Japonii, Zastępca Sekretarza Generalnego ds. Rozbrojeń. Konferencja prasowa o kampanii Cluster Munition Coalition. © Laurent Gillieron (PAP/EPA)

Tymczasem na forum ONZ i UE pojawiają się coraz bardziej natarczywe głosy domagające się wprowadzenia zakazu używania broni autonomicznej (operujących samodzielnie żołnierzy–robotów) ze względu na jej rzekomo nieetyczny charakter. Ulegający szybkiej polaryzacji spór stawia Polskę przed wyborem, który będzie musiała podjąć szybko i świadomie. Może ona poprzeć projekt zakazu, zdając sobie sprawę, że jej strategiczny przeciwnik nie uzna go za obowiązujący; może też wesprzeć podobnie położone Republiki Bałtyckie przy tworzeniu systemu obronnego przyszłości, niosącego Europie nadzieję na niezależność strategiczną i zmianę oblicza wojny na znacznie bardziej ludzkie.

W nocy z piątku na sobotę na forum Group of Governmental Experts to the Convention on Certain Conventional Weapons in Geneva, grupa dwudziestu sześciu państw złożonych głównie z nieistotnych militarnie czy politycznie krajów Afryki i Ameryki Łacińskiej, złożyła wniosek o rozpoczęcie formalnych prac nad traktatem zakazującym badań, produkcji i użycia broni autonomicznej, to jest robotycznych żołnierzy czy, jak chcieliby niektórzy aktywiści i myśliciele, „robotów–zabójców” (killer robots)[1]. Wniosek spotkał się natychmiastowym wetem większości liczących się militarnie krajów świata – USA, Rosji, Izraela, Korei Południowej i Australii, dostrzegających w broni autonomicznej jak najbardziej legalny, a prawdopodobnie moralnie wyższy[2], rodzaj uzbrojenia. Poparty został jednak z oczywistą dla ekspertów hipokryzją przez Chiny, same rozwijające tego typu systemy w szybkim tempie[3]. Najwięksi potentaci europejscy – Francja, Niemcy i Wielka Brytania – nie zajęli radykalnego stanowiska w sporze, wzywając do dalszych prac definicyjnych i regulacyjnych. Chociaż wydarzenia te oznaczają kres nadziei niektórych środowisk na globalny zakaz użycia broni robotycznej, jej przyszłość w Europie pozostaje kwestią otwartą. Wszystkie strony zażartego sporu zgadzają się co do jednego – stawką jest przyszłość wojny i sytuacji strategicznej na świecie.

Czym jednak właściwie jest i czym może się stać broń autonomiczna? Reputacja tej nie istniejącej jeszcze w dojrzałej formie klasy uzbrojenia jest ofiarą szeregu nieporozumień, wyrwanych z kontekstu spekulacji i ideologicznie naładowanej niechęci. Dlatego warto zacząć od opisania stanu prac nad robotycznym żołnierzem, ich tempa i celów, które inżynierowie i stratedzy spodziewają się osiągnąć w ciągu najbliższych dwóch dekad. Zapewni to konieczne tło dla analizy transformatywnego wpływu nowej broni i związanych z nią etycznych, prawnych i dyplomatycznych kontrowersji. Na koniec zostaną omówione trzy możliwe do przyjęcia przez Polskę i resztę krajów Europy Środkowej strategie w obliczu kolejnej rewolucji w technice wojskowej i geopolitycznych przetasowań, do których może ona doprowadzić.

Nowa Wspaniała Armia

Niedawny debiut bojowy zdalnie sterowanych rosyjskich czołgów trudno uznać za spektakularny. Prawdę mówiąc, ich syryjskie występy zakończyły się kompletną klapą, analogiczną do wczesnych problemów game–changing technologies, takich jak łódź podwodna, samolot czy sam czołg. Wyposażony w trzydziestomilimetrowe działko szybkostrzelne i wyrzutnie samosterujących pocisków rakietowych Uran–9, pojazd wielkości SUVa, produkowany był jako twór na poły potiemkinowski, mający zademonstrować technologiczny prymat Mateczki Rosji w niemożliwym do dotrzymania terminie. Efektem jest wadliwe podwozie i częste zacinanie się broni, które w połączeniu z licznymi przypadkami utraty kontaktu z operatorem ściągnęły otwartą krytykę nawet ze strony rodzimych ekspertów[4]. Większość problemów Urana–9 jest jednak łatwa do eliminacji przez ulepszenie jakości procesu produkcyjnego. Jedyny naprawdę poważny problem – wspomniane zakłócenia łączności, częste szczególnie w terenie miejskim i pofałdowanym – dowodzi raczej słuszności co śmielszych koncepcji w zakresie robotyki wojskowej. Półśrodki w rodzaju zdalnego sterowania to ślepa uliczka. Tylko realna autonomia operacyjna robota bojowego może mu pozwolić na skuteczne działanie w coraz groźniejszym środowisku nowoczesnego pola walki.

Bezzałogowy czołg, sterowany przez autonomiczne oprogramowanie, miałby szereg przewag nad swoimi obsadzonymi przez ludzkie załogi konkurentami. Znaczna, jeśli nie większa część masy każdego czołgu to pancerze, mający za zadanie ochronę załogi, najkruchszego elementu maszyny, którego uszkodzenie powoduje jej natychmiastowe wyłączenie z walki. To dlatego najnowocześniejszy czołg załogowy, rosyjski T–14 automatyzuje znaczną część systemów pokładowych, a okrojoną trzyosobową załogę mieści w pojedynczym, ciężko opancerzonym przedziale odizolowanym od reszty pojazdu. Staje się w ten sposób nie do zniszczenia przy użyciu większości istniejącej broni przeciwpancernej. Czołg bezzałogowy jest z definicji niepodatny na zagrożenia, którym konstruktorzy T–14 musieli zapobiegać – komputerowe systemy można rozproszyć po całym pojeździe, tak by nawet po wielokrotnym trafieniu nienaruszone komponenty były w stanie przejąć funkcję tych zniszczonych ze znikomą bądź jedynie stopniową utratą funkcjonalności (w języku fachowym graceful degradation). Zmniejszenie masy pancerza, niepotrzebnego już do ochrony załogi, skutkować może zwiększeniem szybkości i manewrowości, zmniejszeniem rozmiaru pojazdu, jego wykrywalności i zużycia paliwa bądź możliwością przerzucania go w teren walk za pomocą transportowców, dróg i mostów o mniejszych gabarytach – a w konsekwencji zmniejszeniem ceny i trudności obsługi logistycznej, odwiecznej pięty achillesowej każdej armii świata. A jednak cały wachlarz wyżej wymienionych korzyści to dopiero drobna część możliwości, które w chętne je pochwycić ręce wkłada na naszych oczach Rewolucja Robotyczna w Wojskowości, największy przełom w technice wojskowej od czasu balistycznych pocisków nuklearnych.

Nie poprzestając bowiem na udoskonalaniu istniejących już maszyn, użycie zaawansowanej robotyki i Sztucznej Inteligencji może pozwolić wojskowym dokonać rzeczy dotychczas niesłychanych tak w kontekście drobnych potyczek, jak i Wielkiej Strategii (Grand Strategy). Zacznijmy od mikroskali. Jedną z najbardziej wymagających i prestiżowych pozycji w dzisiejszych siłach zbrojnych jest rola pilota myśliwskiego. Wyszkolenie takiego specjalisty zajmuje lata i kosztuje kilka milionów dolarów. Kiedy jednak odchodzi on na emeryturę, bądź ginie w walce czy wypadku, wiedza ta znika razem z nim, a proces szkolenia trzeba zacząć od początku. Program komputerowy, uczący się latać myśliwcem (tak jak dziś działające na podobnej zasadzie programy uczą się jeździć samochodami po drogach Kalifornii), nie starzeje się. Nie może też umrzeć, chyba że w wyniku horrendalnie szerokiego cyberataku wroga. Staje się lepszy z każdym prawdziwym i symulowanym lotem (których w ciągu godziny może odbyć setki), nigdy się nie męczy, zawsze gotów jest do kolejnej walki. Nawet jeśli pilotowana przez niego maszyna zostaje zestrzelona, spadając przekazuje do centrali dane na temat tego konkretnego zdarzenia – i nie popełnia już drugi raz błędu, który kosztował go utratę samolotu. To właśnie zdolność retencji i kumulacji doświadczeń, umiejętność uprzedniego odnalezienia i przetrenowania rozwiązań na każdy możliwy scenariusz, połączona z niezmienną jakością pracy w każdych warunkach stanowi o taktycznej przewadze Sztucznej Inteligencji. As myśliwski łączący doświadczenie asów powietrznych wszystkich epok, snajper będący sumą umiejętności wszystkich ludzkich snajperów – oto poziom doskonałości, który obiecuje sobą perspektywa zastosowania uczących się algorytmów na wojnie. Ponadludzki czas reakcji, pozwalający SI zawsze pozostać dwa kroki przed człowiekiem, dopełnia obrazu oczekującej nas transformacji[5].

Skoro jednak robotów bojowych nie ogranicza ani szybkość ludzkiego refleksu, ani zdolność do przetwarzania jedynie określonej ilości informacji, ani konieczność ochrony czy uwzględnienia biologicznych ograniczeń ludzkiego ciała, w grę wchodzą też zupełnie nowe formy maszyn i ich zastosowania. Najciekawszą i najlepiej opisaną z nich jest koncepcja Swarm, czyli Roju setek czy też tysięcy małych pojazdów, zdolnych komunikować się między sobą z nadludzką szybkością i posiadających jako stado możliwości, których pozbawiony jest pojedynczy osobnik. Najprostsze formy Rojów znalazły już zastosowanie bojowe w atakach bojowników antyrządowych na rosyjskie bazy w Syrii, gdzie pozwoliły niszczyć warte dziesiątki milionów dolarów samoloty czy śmigłowce za pomocą kilkuset gram materiałów wybuchowych i kilku zakupionych w supermarkecie dronów[6]. Zastosowanie tych samych taktyk na większą skalę i przy lepszej koordynacji mogłoby mieć katastrofalne skutki tak dla instalacji wojskowych, jak przemysłowych czy użytku cywilnego[7]. Użyte w trakcie konwencjonalnych działań bojowych, tysiące relatywnie tanich robocików, których strata nikogo nie boli, mogłoby wykonywać prawdziwie samobójcze misje, niszcząc tak siły, jak i morale wroga i umożliwiając cały szereg manewrów strategicznych, które możliwe są na planszy szachowej czy w strategicznych grach komputerowych, ale nie przy dowodzeniu żołnierzami z krwi i kości[8]. Zdolność poświęcania tysięcy robotycznych pionów w celu osiągnięcia taktycznej przewagi dawałaby ludzkiemu dowódcy niespotykane wcześniej w historii wojen opcje.

Na jeszcze wyższym poziomie strategicznym pełna autonomia robota bojowego pozwala już nie tylko dowódcom, ale także dyplomatom i politykom na składanie obietnic (i czynienie gróźb) o niepodważalnej i niezmiennej wiarygodności. Jeśli ONZ ogłosi, że roboty w niebieskich hełmach będą chronić obóz dla uchodźców przed każdym aktem agresji, to tak zaprogramowane maszyny będą to robiły na tej samej zasadzie, na której drut kolczasty kłuje, a płot z prądem razi prądem. Bezużyteczne staną się więc groźby, negocjacje, próby przekupstwa czy branie zakładników. Udzielający gwarancji militarnych podmiot będzie mógł dodatkowo zagwarantować ich nienaruszalność, odbierając nawet sobie samemu prawo do zmiany raz wydanych rozkazów. Nikt oczywiście nie postuluje tego typu działań w przypadku sił nuklearnych czy innych wojsk zdolnych do masowego rażenia na duże dystansy (choć może stanowiłyby one realizację marzeń niektórych zimnowojennych teoretyków); względy etyczne zobowiązują też do ograniczenia tego rodzaju rozwiązań do działań czysto obronnych. Tym niemniej nawet w takiej ograniczonej roli pre–programowane roboty oferują nową jakość w zakresie strategicznej stabilności, ochrony ludności cywilnej, misji pokojowych czy misji typu nation building[9].

Moskwa, Rosja, 9 maja 2018 r. Najnowszy rosyjski robot Uran-9 bierze udział w militarnej paradzie Dnia Zwyciestwa na Placy Czerwonym. © Sergei Ilnitsky (PAP/EPA)

Robotic Revolution – The Train That Has Already Left

Trudno się zatem dziwić, że największe mocarstwa takie jak USA, Chiny czy Rosja stawiają w coraz większym stopniu na autonomiczne bezzałogowce[10] (amerykańskie plany zakładają, że jedna trzecia floty naziemnych pojazdów bojowych będzie właśnie taka w roku 2035 – w lotnictwie, komponentach logistycznych czy flocie podwodnej proporcja ta może być znacznie wyższa). Skąd jednak wiadomo, że wszystkie nakreślone powyżej wizje w ogóle się spełnią, a tym bardziej że spełnią się na tyle szybko, żeby wymagać podjęcia natychmiastowych decyzji strategicznych? Wiele potencjalnie przełomowych technologii wojskowych, nawet tych będących w fazie zaawansowanych projektów, nie stało się rzeczywistością – najlepszym przykładem jest amerykański pakiet technologii znany jako Future Combat Systems, mający zmienić rzeczywistość walki naziemnej, skasowany w 2009 r. po wydaniu nań miliardów dolarów. Jednak to nie prymitywny determinizm technologiczny, a ważkie i niekontestowane przez nikogo uwarunkowania stoją za konsensusem ekspertów w sprawie nieuchronnego nadejścia ery broni autonomicznej.

Po pierwsze, powstanie takiej broni nie zależy od sukcesu jakiegokolwiek pojedynczego projektu czy rozwiązania inżynieryjnego. Jak piszą Jurgen Altmann i Frank Sauer: „Autonomous Weapon Systems need not necessarily take the shape of a specific weapon system akin to, for instance, a drone or a missile. They also do not require a specific military–technology development path”. Zbiór możliwych form, jakie mogą przyjąć technologie spełniające definicję broni autonomicznej, jest niewątpliwie bardzo duży, i trudno byłoby twierdzić, że każda jedna z tych ścieżek okaże się ślepą uliczką[11].

Kolejną przesłanką przemawiającą za szybkim wzrostem potencjału broni autonomicznej jest fakt, iż większość technologii składowych tych systemów jest rozwijana jako tak zwane technologie dual–use przez sektor cywilny na bazie kompletnie nie–wojskowych celów i motywacji. Jak kontynuują Ci sami autorzy: „As AI, autonomous systems and robot technologies mature and begin to pervade the civilian sphere, militaries will increasingly be able to make use of them. Weapons development will profit from the implementation or mirroring of a variety of civilian technologies (or derivatives thereof) and their adoption for military purposes, technologies which are currently either already available or on the cusp of becoming ready for series production in the private sector”[12]. W ten sposób wojsko może skorzystać z owoców zjawiska konwergencji technologicznej i zastosowania technologii robotycznych do coraz szerszego zakresu zadań, zjawiska, które Gill Pratt, szef projektów robotycznych DARPA, amerykańskiej wojskowej agencji badawczej odpowiedzialnej m. in. za stworzenie Internetu, nazywa „Cambrian Explosion in Robotics”[13]. Pratt wymienia 8 motorów (drivers) tak gwałtownych postępów w technologiach robotycznych, takich jak stały wzrost dostępnej ludzkości mocy obliczeniowej, increases in battery performance czy coraz większą gęstość i siłę lokalnych sieci Wi–Fi. W podobnym duchu wypowiada się Arati Prabhakar, do niedawna szef DARPA, cytowany w świeżo ogłoszonej oficjalnej amerykańskiej strategii rozwoju techniki wojskowej na najbliższe dwadzieścia pięć lat[14]. W tym właśnie dokumencie Departament Obrony oficjalnie prognozuje, że większa część postępów technologicznych dokona się w sektorze prywatnym.

Z tak ogromnym rozproszeniem działalności badawczo–rozwojowej w kluczowych dla powstania broni autonomicznej dziedzinach nauki i inżynierii wiąże się praktyczna niemożność zatrzymania procesów jej powstania czy to przez wstrzymanie funduszy, czy bezpośredni zakaz w prawie międzynarodowym poparty sankcjami bądź interwencją zbrojną. Środków na badania i bodźców do tychże dostarcza sam cywilny rynek, a kiedy już sektor cywilny upowszechni dojrzałe technologicznie platformy robotyczne, ich przystosowanie do celów bojowych nie będzie wymagało ani rzadkich i łatwo wykrywalnych surowców (jak w przypadku broni atomowej), ani długotrwałego i kosztownego procesu, pozostawiającego po sobie jasno identyfikowalną infrastrukturę (jak w przypadku broni atomowej i chemicznej). Nie trzeba też będzie pozyskać kogoś spośród małej grupy wysoko wykwalifikowanych i monitorowanych przez władze specjalistów. Różnica między już istniejącymi zdalnie sterowanymi maszynami bojowymi a ich autonomicznymi wersjami byłaby jedynie kwestią zainstalowania dodatkowego oprogramowania. Jak pokazują na co dzień kwestie cyber–przestępczości i cyber–wojny, powstrzymanie każdego programisty na usługach rządowych zestawem międzynarodowych regulacji nie jest możliwe. Zaś zakazanie całej palety technologii cywilnych, na których zdaje się opierać przyszłość światowej gospodarki, byłoby nie tylko niezwykle kosztowne i niepopularne, ale także niemoralne, biorąc pod uwagę, ilu ofiarom chorób, wypadków, kataklizmów czy skrajnej biedy może pomóc wykorzystanie tych technologii (same tylko samochody autonomiczne niosą ze sobą potencjał zmniejszenia liczby ofiar śmiertelnych ruchu drogowego o kilkaset tysięcy rocznie).

Gdy wziąć pod uwagę wszystkie opisane powyżej uwarunkowania, postulat zakazania rozwoju i produkcji uzbrojenia autonomicznego za pomocą międzynarodowej konwencji wydaje się równie realistyczny co postulat zakazania stosowania technologii komputerowych do celów militarnych. Jest to oczywiste, nawet zanim uwzględni się czynniki geopolityczne i historię – tak skrytego, jak i jawnego łamania podobnych konwencji przez Rosję, Iran, Koreę Północną, Syrię i inne „państwa zbójeckie” (rogue states). Analiza tych aspektów sytuacji jasno pokazuje, że zmuszenie tych państw do odejścia od programów zbrojeniowych mogących dać im strategiczną przewagę, możliwe jest tylko i wyłącznie z pozycji siły, z groźbą zbrojnej interwencji włącznie (casus syryjskiej broni chemicznej i irańskiego programu nuklearnego). W przypadku mocarstw nuklearnych, takich jak Chiny i Rosja (czy nawet Korea Północna), taka groźba po prostu nie wchodzi w grę, podobnie jak możliwość zastosowania podstawowego instrumenty negocjacji rozbrojeniowych – inspekcji. W takich warunkach każde mocarstwo ma interes rozwijać broń autonomiczną niezależnie od tego, co zrobią inne – jeśli inne także będą nad nią pracować, w jego interesie jest nie dać się przegonić w technologicznym wyścigu; jeśli dobrowolnie wstrzymają prace, może ten wyścig łatwo i z ogromną korzyścią wygrać, rozpoczynając je samemu.

Postulat globalnego zakazu broni autonomicznej opiera się więc na założeniu, że tak mocarstwa zachodnie i sojusznicze, jak i różnego rodzaju autokracje i zbrodnicze reżimy jednomyślnie zgodzą się postąpić wbrew własnym interesom i nie sięgną po dające ogromną przewagę rozwiązania, które sektor cywilny rozwija samorzutnie i w sposób nieunikniony. Łatwo było przewidzieć, że żaden z dorosłych graczy geopolitycznych nie oprze swoich działań na podobnym założeniu, i rzeczywiście tak się nie stało (o czym za chwilę). Teraz jednak wypada wreszcie zadać pytanie – z jakiego powodu mianoby zakazać broni robotycznej?

Mit o robocie, mit o człowieku

Stanowisko przeciwników broni autonomicznej zwięźle i dokładnie przedstawia profesor Bonnie Doherty, wykładowczyni wydziału prawa Uniwersytetu Harvarda i działaczka Human Rights Watch, jednej z kilku prominentnych organizacji pozarządowych promujących ideę całkowitego zakazania broni autonomicznej. Pisze ona:

„Fully autonomous weapons (…) would be unable to feel compassion, an emotion that inspires people to minimize suffering and death. The weapons would also lack the legal and ethical judgment necessary to ensure that they protect civilians in complex and unpredictable conflict situations.

In addition, as inanimate machines, these weapons could not truly understand the value of an individual life or the significance of its loss. Their algorithms would translate human lives into numerical values. By making lethal decisions based on such algorithms, they would reduce their human targets – whether civilians or soldiers – to objects, undermining their human dignity.

Fully autonomous weapons (…) would likely violate other key rules of international law. Their use would create a gap in accountability because no one could be held individually liable for the unforeseeable actions of an autonomous robot.

(…) Furthermore, the existence of killer robots would spark widespread proliferation and an arms race – dangerous developments made worse by the fact that fully autonomous weapons would be vulnerable to hacking or technological failures”[15].

Choć do każdego z powyższych argumentów warto się odnieść z osobna, należy najpierw zwrócić uwagę na dwa założenia, stojące za każdym z nich bez wyjątku[16]. Profesor Doherty zdaje się myśleć, że broń autonomiczna nie tylko nie zostanie poddana rygorystycznemu procesowi ustalania zgodności z normami międzynarodowego prawa wojennego, któremu to procesowi poddaje się rutynowo każdy nowy rodzaj sprzętu bojowego, ale że jej rozwojem nie będą też kierowały elementarne normy interesu własnego i użyteczności bojowej. Jak inaczej wytłumaczyć jej przekonanie, że wojsko byłoby skłonne wprowadzić do powszechnego użytku maszyny, których zachowania „nie da się przewidzieć”[17]? Mimo że z tego założenia wynika, iż wojskowi inżynierowie i decydenci mieliby się odznaczać nie tylko skrajną niemoralnością, ale i niekompetencją, równocześnie postuluje ona istnienie idyllicznych pól bitew, na których króluje współczucie i poszanowanie godności ludzkiej, zbrodnie wojenne są sprawnie i regularnie karane, a dowódcy i stojący nad nimi politycy zawsze kierują się dobrze wyczulonym zmysłem moralnym. Mit bezdusznego robota, uosabiającego w bajkach i co słabszych utworach science fiction prymitywnie rozumiane zło, miesza się tu z wyjętą wprost z Rousseau wizją wolnego od wad człowieczeństwa.

Stany Zjednoczone, 13 marca 2004. Niezależny pojazd naziemny zespołu CajunBot przed startem DARFPA Grand Challenge Field Test z Barstow, Kalifornia do Primm, Nevada. © DARPA (PAP/EPA)

Mit ten jest tylko narzędziem retorycznym – eksperci tacy jak profesor Doherty, doskonale rozumieją realia współczesnej wojny i to, jak daleko jest im do ideału nawet w przypadku współczesnych armii zachodnich, których charakter etyczny uległ daleko idącej poprawie w okresie post–wietnamskim. Ograniczanie śmierci, cierpień i zniszczeń do absolutnie koniecznego minimum jest kluczową zasadą etyki wojny; nie jest ona jednak realizowana przez empatyzowanie żołnierzy z jej ofiarami w czasie rzeczywistym. Podobnie jak inne instytucje powołane do działania w sytuacjach ekstremalnych – policja czy służba zdrowia – wojsko realizuje jak najbardziej słuszne pryncypia humanitarne poprzez system zawczasu przygotowywanych procedur, w których nie ma miejsca na chwilowe emocje i dogłębne przeżywanie „doniosłości utraty ludzkiego życia”. Doniosłość ta odbija się w prawach i regulacjach, których przestrzegania uczeni są żołnierze, ale samo przestrzeganie odbywa się jak najbardziej mechanistycznie. Dyscyplina wojskowa ma na celu zagłuszenie uczuć i zastąpienie ich zimnym profesjonalizmem z dwóch jak najbardziej etycznych powodów. Po pierwsze, emocje, które wojna wywołuje w żołnierzu, są zazwyczaj jak najdalsze od miłości bliźniego. Gniew, zwierzęcy strach, frustracja i nienawiść są znacznie częstsze – i bardziej naturalne – na polu walki. Po drugie, „sprowadzanie życia ludzi do wartości liczbowych” jest konieczną częścią namysłu etycznego dokonywanego przez żołnierzy na wojnie, podstawowym narzędziem wprowadzania w życie fundamentalnej dla międzynarodowego prawa wojennego Zasady Proporcjonalności. Emocje i doskonale opisane w psychologii błędy poznawcze ludzkiego myślenia nie pomagają w tym żaden sposób, konieczność zastanowienia się nad tym, jak wspólne nam wszystkim intuicje moralne przełożyć na przejrzysty i odporny na stronniczość użytkownika czy atmosferę chwili algorytm – jak najbardziej.

Wiele cech broni autonomicznej, które jej krytycy zdają się postrzegać jako unikalne, dzieli ona z innymi, stosowanymi od dawna rodzajami broni. Kwestia odporności na ataki hakerskie dotyczy dziś każdego artefaktu technologicznego, łącznie z Toyotą Yaris i większością lodówek. To samo powiedzieć można o kwestii odpowiedzialności karnej i odszkodowawczej za działania – nie różni się ona zasadniczo od problemów związanych z odpowiedzialnością za działania pocisków samosterujących czy choćby psów bojowych (całkowicie autonomicznych podmiotów, towarzyszących człowiekowi w boju od zarania wojen), choć określenie jej w jasny sposób i opracowanie konkretnych rozwiązań prawno-proceduralnych będzie oczywiście konieczne. Stosowanie robotów bojowych nie oddala też człowieka od rzeczywistości wojny, wręcz przeciwnie – to dzięki robotyce jesteśmy w stanie zaszczepić człowieczeństwo z powrotem w świecie, z którego wyparła je artyleria i pociski typu cruise. Słynne powiedzenie „nie wsadzisz prawnika do każdego okopu” przestaje być aktualne, skoro całe zespoły prawników i etyków są już dziś w stanie śledzić w czasie rzeczywistym zachowania poszczególnych maszyn za pomocą zamontowanych na nich kamer, poddających zachowania wojskowych obserwacji, a więc ścisłej kontroli, o której myśliciele i aktywiści walczący o przestrzeganie praw człowieka w trakcie wojen nie mogli jeszcze pokolenie temu nawet marzyć.

Prowadzenie walk za pomocą maszyn sterowanych z odległości kilometrów – albo programowanych w zaciszu klimatyzowanych biur przed rozpoczęciem konfliktu – pozbawia odpowiedzialnych za użycie siły zbrojnej tradycyjnego usprawiedliwienia „jest wojna, i w sytuacji zagrożenia wybieraliśmy między życiem swoim a życiem innych ludzi”. Robota można poświęcić, aby zapewnić większe bezpieczeństwo cywilom. Ma to szczególne znaczenie w częstych dziś sytuacjach, gdzie bitwa jest tak naprawdę sytuacją zakładniczą o ogromnej skali, takich jak wyzwolenie Mosulu z rąk wojowników Państwa Islamskiego, którzy potraktowali dwa miliony jego mieszkańców jako żywe tarcze. Roboty mogą podejść bliżej, zaryzykować więcej i zaatakować cel z nadludzką precyzją, która oszczędzi ofiar cywilnych, a także wojskowych. Robot może przecież celować tylko w broń przeciwnika, bądź też zadać mu obrażenia które wyeliminują go z walki, ale nie zabiją i nie okaleczą trwale. W dalszej perspektywie ofiar ludzkich mogłoby nie być w ogóle – biorąc pod uwagę, jak bezradny byłby ludzki żołnierz w starciu z w pełni dojrzałą bronią autonomiczną, wojny zamieniły by się w technologiczne mecze pomiędzy armiami robotów, bliskie odwiecznym marzeniom o władcach rozstrzygających swoje spory grą w szachy.

Czy zatem wszystkie artykułowane przez krytyków obawy są bezpodstawne? Wręcz przeciwnie. Choć stanowią one wymarzone narzędzia do prowadzenia wojen w jak najsprawiedliwszy i najbardziej humanitarny sposób, roboty bojowe działać będą podług metod, celów i wartości swoich ludzkich panów. Maszyny, które szanującemu nakazy moralności i prawa międzynarodowego państwu posłużą do utrzymaniu pokoju czy skutecznej interwencji humanitarnej w obronie podstawowych praw człowieka, przez innego rodzaju podmioty mogą zostać wykorzystane diametralnie inaczej. W słynnym liście otwartym naukowcy i technolodzy będący zwolennikami globalnego zakazu (wśród nich Hawking, Musk, Wozniak i Chomsky) przywołują ten właśnie aspekt pisząc: „in the hands of terrorists, dictators wishing to better control their populace, warlords wishing to perpetrate ethnic cleansing, etc. autonomous weapons are ideal for tasks such as assassinations, destabilizing nations, subduing populations and selectively killing a particular ethnic group”[18]. Upowszechnienie się tego typu uzbrojenia w siłach zbrojnych państw zbójeckich i grup terrorystycznych miałoby absolutnie katastrofalny charakter. W poświęconym tematowi rozpowszechnienia (proliferation) broni autonomicznej artykule razem z dr. Wojciechem Boberem pokazujemy, że strategia nieinterwencji w globalną dystrybucję dostępu do tej przełomowej technologii jest równie złym wyborem, co etycznie błędne i politycznie naiwne starania o traktat zakazujący jej rozwijania[19]. Jaki kierunek działań jest zatem słuszny, i jak wpasowuje się on w ogólną strategię realizacji praw i interesów Polski i sojuszniczych krajów o podobnym położeniu geopolitycznym?

Robot bojowy a sprawa polska

Strategia taka nie tylko istnieje, jest już nawet wcielana w życie przez naszych sojuszników. Łotwa, Finlandia i przede wszystkim Estonia pracują aktywnie nad robotyzacją swoich sił zbrojnych i stworzyły już pierwsze maszyny, zdolne do bezpośredniego udziału w walkach (na razie w human–in–the–loop mode)[20]. Państwa te, zagrożone przez tego samego strategicznego przeciwnika co Polska i nie mogące rywalizować z nim w potencjale ludnościowym, dostrzegają w robotyzacji szansę na wyrównanie tych dysproporcji, nie mogą sobie też pozwolić na pozostanie w tyle za Rosją w kwestiach wojskowych. Równocześnie z pracami technologicznymi kraje te prowadzą mądrą i rozważną politykę promowania tych rozwiązań i oswajania z nimi europejskich ośrodków. Estońskie badania nie są oficjalnie nastawione na autonomię prowadzenia ognia, a jedynie na autonomię poruszania się i percepcji, niebudzącą kontrowersji, a będącą głównym i najtrudniejszym krokiem w kierunku realnej autonomii bojowej. Ta wyważona ścieżka rozwoju daje też inżynierom, etykom i prawnikom czas na opracowanie zgodnych z zasadami moralności i prawa wojennego regulacji, doktryn i procedur użycia broni częściowo lub w pełni autonomicznej.

Wszystkie uwarunkowania stojące za działaniami Państw Bałtyckich obowiązują również w wypadku Polski, której większe możliwości przemysłowe i status na arenie międzynarodowej czynią z niej naturalnego kandydata na lidera w dziedzinie tych technologii. Warszawa powinna jak najszybciej włączyć się w opisane wyżej działania i stanąć na ich czele. Ale inicjatywy te nie powinny się ograniczać do robotyzacja sił polskich i sojuszniczych, choć samo w sobie jest to przedsięwzięcie na ogromną skalę. Rewolucja Robotyczna w Wojskowości stwarza bowiem realną szansę na utworzenie efektywnych i stanowiących realną siłę wspólnych europejskich sił zbrojnych. Sformowanie takich jednostek od podstaw jako siły całkowicie zrobotyzowanej, w której większość a w dalszej perspektywie całość zadań bojowych byłaby wykonywana przez maszyny, pozwoliłoby usunąć szereg problemów, trapiących dzisiaj próby utworzenia wspólnej europejskiej architektury obronnej. Naturalna niechęć francuskich, hiszpańskich czy włoskich polityków do wysyłania młodych ludzi, by umierali za Suwałki, przestałaby wchodzić w grę, a pewność, że zobowiązania sojusznicze zostaną dotrzymane, wzrosłaby skokowo. Rozwiązanie to pozwoliłoby zamożnym sojusznikom z zachodu i południa Europy na wsparcie wschodniej flanki jedynie przy użyciu środków finansowych i ekspertyzy technicznej, zwiększając ogromnie polityczne szanse tego wielkiego i kluczowego dla bezpieczeństwa Polski projektu. Kwestia ta powinna stać się więc obiektem wytężonych i długofalowych działań polskiej dyplomacji.

Rewolucja Robotyczna w Wojskowości rozgrywa się na naszych oczach. Strategiczny przeciwnik Polski i NATO podejmuje zdecydowane kroki, aby wykorzystać ją do osiągnięcia przewagi w wojnie konwencjonalnej i zapewnić sobie możliwość działań militarnych nie obarczonych politycznie niewygodnymi stratami w ludziach. Wysiłki zmierzające do zakazania broni autonomicznej, od początku skazane na niepowodzenie, poniosły w Genewie ostateczną klęskę. Polska musi zrozumieć i zaakceptować kształtująca się rzeczywistość wojskową i dołożyć wszelkich starań, żeby znaleźć się w czołówce krajów rozwijających bezpieczne i etyczne robotyczne technologie wojskowe. Ich potencjał do zmiany oblicza wojny i zwiększenia bezpieczeństwa wschodniej flanki NATO czyni z robotyzacji naszych sił zbrojnych moralny i polityczny obowiązek, a także okazję do utworzenia politycznie akceptowalnych i realnie skutecznych wspólnych europejskich sił zbrojnych. Siły te, łączące najlepsze umiejętności ludzi i maszyn, stanowiłyby nową jakość – moralną i wojskową – na polach bitew, i umożliwiłyby wyjście naprzeciw już istniejącym i rodzącym się wyzwaniom, które stawia bezpieczeństwu Europy nadchodzący wiek gwałtownych przemian technologicznych.

On September 12th, after the filing of this article, EU Parliament has passed a resolution calling on a universal ban on autonomous weapons with 82% voting in favor. This clearly demonstrates the potential danger of Europe freely electing to damage its own strategic standing with self-imposed and ultimately ineffective restrictions, in result leaving the most vulenrable member countries even more so. Poland needs to swiftly move against this troubling wave of well meant political naivety[21].

 


[1] J. Delcker, US, Russia Block Formal Talks on Whether it is Ban ‚Killer Robots’, 9 styczeń 2018 r., „Politico.eu”, www.politico.eu/article/killer-robots-us-russia-block-formal-talks-on-whether-to-ban/, (dostęp: 1 września 2018).

[2] United States of America, Humanitarian benefits of emerging technologies in the area of lethal autonomous weapon systems, Statement before Group of Governmental Experts to the CCW, Geneva, 9–13 kwietnia 2018 r., CCW/GGE.1/2018/HR.4, (dostęp: 1 września 2018).

[3] E. B. Kania, China’s Strategic Ambiguity and Shifting Approach is Lethal Autonomous Weapon Systems, 14 kwietnia 2018 r., „Lawfare Blog”, www.lawfareblog.com/chinas-strategic-ambiguity-and-shifting-approach-lethal-autonomous-weapons-systems, (dostęp: 1 września 2018).

[4]K. Mizokami, Russia’s Tank Drone Performed Poorly in Syria, 18 czerwca 2018 r., https://www.popularmechanics.com/military/weapons/a21602657/russias-tank-drone-performed-poorly-in-syria/, (dostęp: 1 września 2018).

[5] Opisana perspektywa nie leży już całkowicie w dziedzinie military science fiction. Pierwsze algorytmy samouczące pokonują profesjonalistów na symulatorach używanych do szkolenia pilotów bojowych w każdej z symulowanych walk powietrznych – Genetic Fuzzy based Artificial Intelligence for Unmanned Combat Aerial Vehicle Control in Simulated Air Combat Missions, Ernest et al., „J Def Manag” 2016, 6:1.

[6] Lt. J. Hanacek, The perfect can wait; good solutions to the ‘drone swarm’ problem, „WarOnTheRocks.com”, 14 sierpnia 2018 r., https://warontherocks.com/2018/08/the-perfect-can-wait-good-solutions-to-the-drone-swarm-problem/, (dostęp: 1 września 2018).

[7] Lt. C. D. Pinion, The Navy and Marine Corps Need to prepare for the Swarm of the Future, WarOnTheRocks.com, 28 marca 2018 r., https://warontherocks.com/2018/03/the-navy-and-marine-corps-must-plan-for-the-swarm-of-the-future/, (dostęp: 1 września 2018); T. X. Hammes, Cheap Technology Will Challenge US Tactical Dominance, 29 marca 2016 r., https://ndupress.ndu.edu/JFQ/Joint-Force-Quarterly-81/Article/702039/cheap-technology-will-challenge-us-tactical-dominance/, „Joint Force Quarterly” 81, 2 kwartał 2016, (dostęp: 1 września 2018).

[8] Major J. Hurst, Robotic Swarm in Offensive Maneuver, październik 2017, https://www.researchgate.net/publication/320273069_Joint_Force_Quarterly, „Joint Force Quarterly” 87, 4 kwartał 2017 r., (dostęp: 1 września 2018).

[9] Zarządzane przez wyspecjalizowany korpus specjalistów podległych organizacjom międzynarodowym wojska mandatowe mogłoby stanowić wyjście z pułapki, w którą często wpadają kraje o największym poziomie ubóstwa i technologiczno–instytucjonalnego zacofania, zapewniając ochronę ludności i instytucji państwowych bez uzależniania tych ostatnich od kaprysów rodzimej kliki wojskowych. Mechanizm ten jako jeden z głównych czynników stojących za perpetuacją światowego ubóstwa identyfikuje Paul Collier w swojej książce The Bottom Billion; Why the Poorest Countries Are Failing and What Can Be Done About It (Oxford University Press, New York 2007).

[10]U.S. Department of Defense, Unmanned Systems Integrated Roadmap: 2017–2042 (2018), www.documentcloud.org/documents/4801652-UAS-2018-Roadmap-1.html#document/p1; E. B. Kania, Battlefield Singularity: Artificial Intelligence, Military Revolution and China’s Future Military Power, 28 listopada 2017 r., https://www.cnas.org/publications/reports/battlefield-singularity-artificial-intelligence-military-revolution-and-chinas-future-military-power, Center For New American Security, (dostęp: 1 września 2018 r.).

[11] J. Altmann, F. Sauer, Autonomous Weapon Systems and Strategic Stability, Survival, 59:5, s. 124.

[12] Ibidem, s. 124-125.

[13] G. A. Pratt, Is a Cambrian Explosion Coming for Robotics?, „Journal of Economic Perspectives”, vol. 29, no. 3 Summer 2015, s. 51-60.

[14] U.S. Department of Defense, Unmanned Systems Integrated Roadmap…, s. 25.

[15] B. Doherty, Ban ‚Killer Robots’ is Protect Fundamental Moral and Legal Principles, 21 sierpnia 2018 r., https://theconversation.com/ban-killer-robots-to-protect-fundamental-moral-and-legal-principles-101427, „The Conversation”, (dostęp: 1 września 2018 r.).

[16] W sekcji tej będę obficie czerpał z zajmujących się tematem etyków wojny i nowych technologii: K. Anderson, M. C. Waxman, Law and Ethics For Autonomous Weapon Systems; Why a Ban Won’t Work and How the Laws of War Can, Stanford University, The Hoover Institution Jean Perkins Task Force on National Security and Law Essay Series, papers.ssrn.com/sol3/papers.cfm?abstract_id=2250126; S. Kershnar, Autonomous Weapons Pose No Moral Problem, Killing by Remote Control. The Ethics of an Unmanned Military, (eds.) B. Strawser, J. McMahan, Oxford, Oxford University Press 2013, s. 229–245; P. Lin, G. Bekey, K. Abney, Autonomous Military Robotics: Risk, Ethics, and Design, „Philosophy” (2008); G. Lucas Jr., Engineering, Ethics and Industry: The Moral Challenges of Lethal Autonomy. Killing by Remote Control. The Ethics of an Unmanned Military, (eds.) B. Strawser, J. McMahan, Oxford, Oxford University Press, s. 211–228.

[17] W dyskursie o broni autonomicznej wyróżnia się trzy poziomy kontroli ludzkiej – human–in–the–loop, czyli, mówiąc obrazowo, człowiek i tylko człowiek pociągający za spust, human–on–the–loop, czyli zdolny do przerwania w każdej chwili ostrzału podjętego autonomicznie przez robota, i human–out–of–the–loop, czyli do przerwania tego ostrzału niezdolny (np. przez brak kontaktu z robotem na czas walki). Kontrowersje etyczne budzą właśnie dwa ostatnie rozwiązania, w szczególności opcja out–of–the–loop. Autorzy alarmistycznych wstępniaków zapominają jednak, że w interesie wojska leży jak najściślejsza kontrola nad działaniami swoich przedstawicieli (agents), i że nie potrzebuje ono robotów jako narzędzi ślepej i indiscriminatory przemocy – takie narzędzie w postaci nieinteligentnej amunicji (dumb munitions) artyleryjskiej i lotniczej posiada od stu lat, i aktywnie wyzbywa się ich resztek.

[18] Future of Life Institute (2015), Autonomous Weapons: An Open Letter from AI & Robotics Researchers, https://futureoflife.org/open-letter-autonomous-weapons/, (dostęp: 8 września 2018).

[19] W. Bober, M. Zając, Autonomous Military Robots – critical topography of possible reactions to upcoming technological revolution, „Zeszyty Naukowe Politechniki Śląskiej – Organizacja i Zarządzanie” , z. 110, s. 201-216.

[20] Estonian Defence Ministry, Estonia looking to develop unmanned land systems within the framework of European defence cooperation, www.kaitseministeerium.ee/en/news/estonia-looking-develop-unmanned-land-systems-within-framework-european-defence-cooperation, (dostęp: 2 sierpnia 2018).

[21] European Parliament Passes Resolution Supporting a Ban on Killer Robots, 14 września 2018 r., https://futureoflife.org/2018/09/14/european-parliament-passes-resolution-supporting-a-ban-on-killer-robots/, Future of Life Institute, (dostęp: 24 września 2018 r.).

Wszystkie teksty (oprócz zdjęć) opublikowane przez Warsaw Institute mogą być rozpowszechniane pod warunkiem podania ich pochodzenia.

Powiązane wpisy
Top