• Nie Znaleziono Wyników

Czy użycie robotów zabójców zostanie zakazane?

W ostatnich kilku latach uwagę opinii publicznej zwróciła możliwość wyprodukowania i wprowadzenia do uzbrojenia armii robotów zabójców, inaczej określanych jako autono-miczne roboty śmiercionośne (lethal autonomous robotics – LARs). Są to systemy, które po zaktywizowaniu mogą wybierać i atakować cele bez jakiejkolwiek interwencji operatora. Ich

16 Doc. A/HRC/25/L.32.

17 Jak się wydaje, niektóre państwa wstrzymały się od głosu ze względu na to postanowienie. Tym samym wskazały, że dyskusja może być upolityczniona.

18 11 czerwca 2014 r. Rada Bezpieczeństwa przedyskutowała sprawę wykorzystania bezzałogowych statków powietrznych w operacjach pokojowych. Wielu mówców wskazało, że w operacjach pokojowych wykorzystywane są z sukcesem tylko drony obserwacyjne. Przemawiając na tym posiedzeniu, sekretarz generalny Ban Ki-moon podkreślił, że operacje pokojowe podejmowane przez Narody zjednoczone muszą być w pełni zgodne z prawem humanitarnym i międzynarodowym prawem praw człowieka. Security Council, Doc. SC/11434, 11 June 2014.

ważnym elementem jest autonomiczny, niezależny od jakiegokolwiek sterowania wybór ce-lów i użycie śmiercionośnego ładunku.

Czy w świetle prawa międzynarodowego wykorzystywanie takich systemów jest dopusz-czalne? Wprawdzie w pełni autonomiczne systemy broni jeszcze nie są produkowane, ale już można wskazać, mimo utrzymywania prac w tajemnicy, systemy o pewnym stopniu au-tonomii i zdolności do niszczenia czy zabijania19. Mowa między innymi o broni amerykań-skiej: systemie Phalanx mogącym wykrywać i niszczyć nadlatujące rakiety i samoloty, systemie C-RAM automatycznie niszczącym pociski artyleryjskie, rakiety i pociski moź-dzierzowe oraz o dronach X-47B zdolnych do autonomicznego startu i lądowania na lotni-skowcach, a także o izraelskim systemie Harp autonomicznie wykrywającym i niszczącym urządzenia radarowe. Do tej listy można dodać także południowokoreańskie roboty Samsung Techwin, które umożliwiają autonomiczne namierzanie ruchomych celów w strefie zdemi-litaryzowanej. Uzasadniona wydaje się teza, że produkcja w pełni autonomicznych syste-mów nie należy już do sfery science fiction, lecz jest całkowicie realna.

Problem regulacji prawnych związanych z użyciem w pełni autonomicznych robotów za-bójców stał się przedmiotem dyskusji, wstępnych ustaleń i propozycji na wielu forach we-wnętrznych i międzynarodowych. Najbardziej zaawansowane w tej technologii Stany Zjednoczone wydały w 2012 roku dyrektywę Autonomia w systemach broni, w której uzna-ły za konieczne ustanowienie kontroli krajowej nad produkcją i rozwojem systemów micznych oraz ustanowiły pewną formę moratorium. W dyrektywie zapisano, że autono-miczne systemy broni muszą być projektowane w taki sposób, by pozwalały dowódcom i operatorom na ocenę dopuszczalności ich użycia. Przewidziano warunki uzyskania oficjal-nej zgody na produkcję i rozwój różnego typu takich robotów. W dyrektywie, co należy pod-kreślić, zakazano rozwijania i wprowadzania do uzbrojenia automatycznych systemów śmier-cionośnych, chyba że są spełnione szczególne wymogi przedstawione w dokumencie20. Niewątpliwie takie ujęcie problemu należy ocenić pozytywnie, ustanowiono bowiem pewien model postępowania dla potencjalnych producentów systemów autonomicznych.

Stanowisko w tej sprawie zajęła również Wielka Brytania. W 2011 roku zdecydowanie stwierdziła, że nie planuje rozwijania systemów, które w dziedzinie dowodzenia i kontroli mogłyby działać bez interwencji człowieka21. Zdaniem brytyjskich ekspertów, takie syste-my mogłyby być dostępne w 2025 roku. W ocenach innych specjalistów zdolność produko-wania systemów śmiercionośnych zostanie osiągnięta dopiero za 20–30 lat22.

O problemie robotów zabójców mówili specjalni sprawozdawcy Narodów Zjednoczonych ds. pozasądowych, doraźnych lub arbitralnych egzekucji. W 2010 roku Philip Alston pod-kreślił, że szybki rozwój technologii autonomicznych, zwłaszcza ukierunkowanych na zdol-ności do zabijania i zmniejszenie kontroli operatora, nie jest przedmiotem analizy z

punk-19 Vide: Ch. Heyns: Report of the Special Rapporteur on extrajudicial, summary or arbitrary extensions (Doc. A/HRC/23/47, s. 8–9), który zgodnie z rezolucją 17/5 Rady Praw Człowieka dotyczy autonomicznych robotów śmiercionośnych i ochrony życia.

20 US Department of Defense Directive, Autonomy in Weapons Systems, Number 3000.9 of 21 November 2012, par. 4 a, c I d.

21 UK Ministry of Defense, The UK Approach to Unmanned Aircraft Systems, s. 5–8.

22 IHRC, Losing Humanity The Case against Killer Robots. Human Rights Watch, 45, 2012, s. 20.

Prawnomiędzynarodowe problemy...

tu widzenia praw człowieka i prawa humanitarnego23. W specjalnym raporcie z 2013 roku poświęconym robotom zabójcom Ch. Heyns przedstawił rekomendacje skierowane do Narodów Zjednoczonych, organizacji międzyrządowych oraz do państw i organizacji po-zarządowych, w których zaproponował podjęcie działań zmierzających do wprowadzenia krajowych moratoriów na produkcję, prowadzenie doświadczeń i rozwijanie robotów śmier-cionośnych.

W październiku 2013 roku w czasie sesji Zgromadzenia Ogólnego w Pierwszym Komitecie, mającym w gestii sprawy rozbrojenia i bezpieczeństwem międzynarodowego, odbyła się debata na temat robotów zabójców, w której uczestniczyło 16 państw24. Państwa będące stronami konwencji o zakazie lub ograniczeniu użycia broni konwencjonalnych, które mogą być uważane za powodujące nadmierne cierpienie lub mające niekontrolowa-ne skutki (1980), zadecydowały o włączeniu tego tematu do programu prac spotkania prze-widzianego na 2014 rok. Zgodnie z tą decyzją pierwsze spotkanie w Narodach Zjednoczonych poświęcone całkowicie temu zagadnieniu odbyło się w maju 2014 roku, a uczestniczyło w nim 87 państw. Michael Moeller, urzędujący szef genewskiego biura Narodów Zjednoczonych, podkreślił, że uczestnicy spotkania mają szansę na podjęcie wyprzedza-jącego działania, tak jak w 1995 roku, kiedy to przyjęto protokół do konwencji z 1980 ro-ku zakazującej użycia oślepiającej broni laserowej, zanim jeszcze powstała możliwość jej produkcji.

W czasie spotkania państwa mogły poznać argumenty za ustanowieniem zakazu takiej broni, tak jak to postulują organizacje pozarządowe – Human Rights Watch czy kampania przeciwko autonomicznym robotom śmiercionośnym. Zostały one przedstawione przez Noela Sharkeya. Stanowisko przeciwne zakazowi tych systemów przedstawił Ronald Arkin25. W cza-sie dyskusji ambasador Niemiec stwierdził, że zasada ludzkiej kontroli jest podstawą całego prawa humanitarnego, natomiast przedstawiciel Stanów Zjednoczonych zaproponował, że-by nie przesądzać kwestii dopuszczalności użycia nowych technologii. Wielu mówców zwra-cało uwagę na to, że istniejące normy prawa konfliktów zbrojnych nie obejmują przyszłych systemów, które mogłyby decydować o celach bez interwencji człowieka, dlatego przyjęcie odpowiednich regulacji staje się koniecznością.

Jakie argumenty mogą uzasadniać dopuszczenie do użycia autonomicznych robotów śmier-cionośnych, a jakie są wysuwane przeciwko ich użyciu? Przeciwnicy zakazu produkcji i uży-wania robotów zabójców wskazują, że raczej trudno podać przykłady powstrzymyuży-wania roz-woju technologicznego, proces ten bowiem trwa, o czym świadczą choćby już istniejące i znajdujące się w uzbrojeniu armii systemy o znacznym stopniu autonomii działania.

Przytaczany jest przykład zakazu używania oślepiających laserów, który w praktyce został ominięty. Stany Zjednoczone rozpoczęły prace nad zaawansowanymi technicznie systema-mi laserowysystema-mi – działasystema-mi, które nie oślepiają, a umożliwiają niszczenie samolotów i

zabi-23 P. Alston, UN Doc. A/65/321, August 23, 2010.

24 Campaign to Stop Killer Robots. http://www.stopkillerrobots.org/2013/10/unga2013 [dostęp: 20.09.2014].

25 UN debates future ban killer robots. http://news.yahoo.com/un-debates-future-ban-killer-robots-1421251/9.html [dostęp:25.09.2014]. M. Novak: The UN Will Debate the Ethics of Killer Robots This Week. http://www.gizmodo.com.

au/2014/05/the-united-nations-will-debate-the-ethics-of-killer-robots-this-week [dostęp:25.09.2014].

janie pilotów podczas lotu. Również w trakcie działań wojennych wiele decyzji ludzkich jest w istocie podejmowanych na podstawie ustaleń różnego rodzaju urządzeń. Pilot, który bom-barduje z wysokości 10 000 m, nie widzi atakowanych celów, wykonuje polecenia automa-tów, a stopień swobody jego decyzji jest minimalny.

Dowodzono, że zaawansowane technologicznie systemy będą bardziej precyzyjne, w związ-ku z tym powstałe w wynizwiąz-ku ich użycia straty w ludności cywilnej będą mniejsze. Co wię-cej, zastosowanie takich systemów jest pozbawione emocji i ideologicznych motywacji nie-nawiści czy chęci zemsty, które mogą prowadzić do popełnienia zbrodni wojennych.

W dyskusji wysuwano też argument utrudnionej kontroli zakazu produkcji, posiadania i uży-wania autonomicznych robotów. Rany i uszkodzenia spowodowane działaniem takich syste-mów nie będą się różniły od ran spowodowanych przez systemy sterowane przez ludzi.

Ponadto argumentowano, że taki zakaz byłby przedwczesny, ponieważ trudno oceniać po-tencjalne skutki wykorzystania systemów, które jeszcze nie istnieją.

Argumenty na uzasadnienie zakazu badań, produkcji i wprowadzania robotów zabójców do uzbrojenia odwołują się przede wszystkim do prawa humanitarnego i praw człowieka.

Sporządzony 8 czerwca 1977 roku protokół dodatkowy I do konwencji genewskich z 12 sierp-nia 1949 roku, dotyczący ochrony ofiar międzynarodowych konfliktów zbrojnych, zawiera specjalny artykuł (nr 36) odnoszący się do nowych broni. Zapisano w nim: Przy prowadze-niu badań, prac rozwojowych, nabywaprowadze-niu lub wprowadzaprowadze-niu nowej broni, nowego środka lub prowadzenia wojny Wysoka Umawiająca się Strona jest obowiązana ustalić, czy ich za-stosowanie byłoby w pewnych lub we wszelkich okolicznościach zakazane przez postanowie-nia niniejszego protokołu lub przez jakikolwiek inny przepis prawa międzynarodowego od-noszący się do tej Wysokiej Umawiającej się Strony.

Międzynarodowy Komitet Czerwonego Krzyża już w 1987 roku zgłosił zastrzeżenia do częściowo autonomicznej broni ze względu na ryzyko, jakie ona tworzy. Stwierdził, że jeśli człowiek nie panuje nad technologią, lecz pozwala jej panować nad nim, zostanie zniszczo-ny przez tę technologię26. Uwagi te zostały sformułowane w odniesieniu do broni częściowo autonomicznej, zatem ostrzeżenie to jest jeszcze bardziej przekonujące i aktualne w kontek-ście systemów uzbrojenia całkowicie automatycznych. Zgodnie z art. 36 wszystkie państwa są zobowiązane do analizy nowej broni pod kątem jej stosowania w świetle prawa między-narodowego i wynikających z niego zobowiązań. Analiza ta powinna być przeprowadzona jak najwcześniej – na etapie tworzenia koncepcji, doświadczeń i rozwijania prototypów, jesz-cze przed decyzją o rozpoczęciu produkcji.

Jakich wymogów międzynarodowego prawa humanitarnego nie spełniają zautomatyzo-wane systemy śmiercionośne? Fundamentalnym wymogiem prawa humanitarnego wobec strony wojującej jest obowiązek odróżniania ludności cywilnej podlegającej ochronie od żoł-nierzy. Ataki, podczas których ten wymóg nie jest spełniony, stanowią oczywiste pogwałce-nie prawa. Celem walki mogą być tylko obiekty wojskowe, a pogwałce-nie cywilne. Takiego roz-różnienia może dokonać wyłącznie człowiek, nie robot. Podobnie zakazane są dysproporcjonalne ataki, w których szkody cywilne zdecydowanie przeważają nad

korzy-26 International Committee of the Red Cross (ICRC): Commentary on the Additional Protocols of 8 June 1977 to the Geneva Convention of 12 August 1949. Martinus Nijhoff Publishers, Geneva 1987, s. 428.

Prawnomiędzynarodowe problemy...

ściami wojskowymi. Za dysproporcjonalny jest uważany atak, który prowadzi do utraty ży-cia i szkód wyrządzonych obiektom cywilnym w stopniu nieuzasadnionym konkretnymi i bezpośrednimi korzyściami wojskowymi.

Roboty nie mogą ustalić, czy walczący jest ranny czy chory, tym samym, czy jest wyłą-czony z walki, nie widzą, czy przeciwnik jest bezbronny i się poddaje. Nie mogą zatem brać jeńców i przestrzegać normy zarówno konwencyjnej, jak i zwyczajowej o zakazie zabijania poddającego się przeciwnika. W prawie konfliktów zbrojnych funkcjonuje klauzula Martensa, powtórzona w art. 1 protokołu I, w której stwierdzono, że osoby cywilne i kombatanci pozo-stają pod ochroną i władzą zasad prawa międzynarodowego wynikających z ustalonych zwy-czajów, zasad humanizmu oraz wymogów powszechnego sumienia. Roboty nie mogą speł-nić tych wymogów, nie mają bowiem ani moralności, ani etyki, ani sumienia.

By spełnić wymogi międzynarodowego prawa humanitarnego, w pełni automatyczne sys-temy musiałyby mieć cechy ludzkie. Roboty nie mają zdolności do relacji z ludźmi i do oce-ny ich intencji. Nie są zdolne do oceoce-ny sytuacji na polu walki i reagowania na nią. Założenie, że w przyszłości maszyny będą decydowały o życiu i śmierci ludzi jest szokujące. Niemożność przestrzegania fundamentalnych zasad międzynarodowego prawa humanitarnego może pro-wadzić do jego całkowitej erozji. Postulat zakazania badań, rozwijania, produkcji i użycia broni w pełni autonomicznej przez przyjęcie wiążącego prawnie instrumentu międzynaro-dowego jest więc w pełni uzasadniony. Towarzyszyć temu powinno przyjęcie odpowiednich zakazów w prawie krajowym.