Jakub Dymek: Sam na sam z „inteligentą” bombą

Ludzie są omylni. Czy roboty ucywilizują wojnę?

 Jestem przeciwny wojnie. Mam nadzieję, że systemy takie jak te nigdy, przenigdy nie zostaną użyte. Ale jeśli jesteśmy na tyle głupi, żeby dalej się zabijać o nie wiadomo co, cywile na polu bitwy powinni być lepiej chronieni  – tłumaczy profesor Ronald Arkin dziennikarzowi BBC, Davidowi Edmondsowi. Arkina zapytano o autonomiczną broń – technologie zabijania zdolne operować bez konieczności podejmowania bezpośrednich decyzji przez operatora. Systemy uzbrojenia o różnym poziomie autonomii – rakiety naprowadzane czy drony – już istnieją, więc pytanie o etykę ich zastosowania nie jest wyłącznie domeną futurologii. Jednak, jak to często z podobną debatą bywa, łatwiej rozmawiać o nieokreślonej przyszłości, wyobrażeniu o niej, niż o rzeczywistych problemach, które już się uwidoczniły. Ze stanowiskiem profesora Arkina – i nurtem, który reprezentuje – nie jest inaczej.

Cytowany w materiale BBC Arkin o sprawach fundamentalnych mówi rzeczy niekontrowersyjne. Jeśli możemy uchronić ludzkie życie, jeśli lepsza technika na polu bitwy może w tym pomóc, mamy oczywisty moralny obowiązek dążyć do minimalizacji strat cywilnych – deklaruje.[->] I z tak postawionym dylematem trudno jest się nie zgodzić. Konwencja genewska i międzynarodowe prawo wojny tak właśnie rozstrzyga tę kwestię. Jeśli już musimy się zabijać, powinniśmy – mamy obowiązek – ograniczyć okrucieństwo, cierpienie i tortury, które były odwieczną częścią zbrojnych konfliktów. Kontrowersje pojawiają się, gdy Arkin zaczyna snuć wizje konkretnych rozwiązań, które miałyby się temu szczytnemu celowi przysłużyć.

Inteligenty granat Mógłby reagować na ruch, rozpoznawać twarze i oceniać wrogie zamiary, dokonać lub nie detonacji w odpowiedzi na autonomiczną ocenę ryzyka zranienia lub śmierci cywili.

 Wierzę, że możemy stworzyć »throwboty«, prawdziwie inteligentne granaty, które zamiast reagować wrogo bez oceny cudzych wrogich zamiarów, mogłyby poczekać z uderzeniem na wrogie potraktowanie – mówi Arkin. Dziennikarz dopytuje, czy możemy zaszczepić moralność tym nowym rodzajom broni. Wierzę, że odpowiedź brzmi: tak. Sytuacja, w jakiej wspomniane throwboty miałyby się przydać, zilustrowana jest przykładem starcia, jakie miało miejsce w pierwszych latach amerykańskiej wojny z Irakiem. Żołnierze, przekonani, że w nieodległym od drogi domu ukrywają się zamachowcy, którzy podłożyli bombę-samoróbkę, która zabiła ich kolegę, postanawiają uderzyć. W domu nie ma domniemanych sprawców, w ataku giną cywile. Inteligenty granat, sugeruje profesor, poradziłby sobie lepiej. Jak? Mógłby reagować na ruch, rozpoznawać twarze i oceniać wrogie zamiary, dokonać lub nie detonacji w odpowiedzi na autonomiczną ocenę ryzyka zranienia lub śmierci cywili.

Gdyby nie chodziło o ludzkie życie, można by się gorzko zaśmiać. Inteligentny granat miałby być bezpieczniejszy na polu bitwy, choć tak naprawdę oceniałby te same czynniki, jakie oceniają ludzcy dowódcy, tyle że w oparciu o ciąg zer i jedynek. W z definicji niejasnych okolicznościach asymetrycznej wojny, zestaw sztywno wytyczonych reguł miałby sprawdzić się lepiej niż – także daleka od bezbłędnej – ocena zmieniających się realiów przez wyszkolonego w tym celu człowieka.

W rzeczywistości laboratoryjnej miałoby to jeszcze swoje uzasadnienie. Jednak, nawet przy niespecjalnie wybujałej wyobraźni, można z łatwością znaleźć dziesiątki kontrprzykładów i sfalsyfikować założenia stojące za rzekomo lepszą zdolnością oceny przez robota. Co, jeśli w pokoju jest ciemno, zamachowcy przetrzymują zakładników, wszyscy są ubrani jednakowo, kobiety noszą burki, a do tego w tym samym budynku pomieszczenia, gdzie przetrzymywana jest broń, sąsiadują z częścią mieszkalną? Każda decyzja przynosi w takiej sytuacji skutki, które podlegają ocenie moralnej. Żadna nie jest optymalna. Jedyna różnica? Człowiek oddala od siebie jej ciężar.

Lista przytoczonych argumentów przeciwko rozwojowi autonomicznej broni jest zwięzła, ale konkretna.

Współczesne konflikty są w większości odmienne od modelowej wojny z podręczników historii i rozpraw generała Clausewitza. Paradoksalnie zalety autonomicznej broni łatwiej sobie wyobrazić na przykładzie I wojny światowej czy wojen napoleońskich – są umundurowane armie, toczą bitwy w polu, w oparciu o wytyczoną linię frontu, z jasnym rozkładem sił i tak dalej. Inteligentny granat pod Ypres byłby pewnie mniej śmiercionośny niż niemądra puszka z trującym gazem. Na przykładzie Iraku i amerykańskich komandosów widzimy, że wszystko jest na opak: partyzanci i cywile są wymieszani, mężczyźni ukrywają się w kobiecych strojach, budynki cywilne służą za kryjówki dla broni, a frontalna bitwa precyzyjnie rozmieszczonych oddziałów nie definiuje wojny, lecz jest wyjątkiem potwierdzającym regułę.

Debata, w której ostatnim głosem jest wypowiedź Arkina, nie jest oczywiście nowa. Głośny list sprzeciwiający się rozwojowi autonomicznej broni ukazał się na początku 2015 roku – w ciągu następnych 24 miesięcy podpisało go ponad trzy tysiące badaczek i badaczy. Wśród sygnatariuszy są m.in. fizyk Stephen Hawking, twórca Apple’a Steve Wozniak, inżynierka-pionierka Barbara Simons. Lista przytoczonych argumentów przeciwko rozwojowi autonomicznej broni jest zwięzła, ale konkretna: ułatwiają podjęcie decyzji o użyciu śmiercionośnej siły, są podatne na wrogie przejęcie, wydają się perfekcyjnym narzędziem do przeprowadzania zdalnych zamachów i czystek etnicznych, w przeciwieństwie do broni nuklearnej mogą być produkowane i rozwijane w ukryciu i relatywnie tanio.

– Tak jak większość biologów i chemików nie chce produkować broni biologicznej i chemicznej, większość badaczy sztucznej inteligencji nie chce tworzyć broni opartych na sztucznej inteligencji – pisali autorzy listu. Wiara w dobroczynny potencjał sztucznej inteligencji nie może oznaczać zgody na nowy wyścig zbrojeń, na nową rewolucję militarną, opartą o autonomiczną broń. List zaowocował wieloma głosami polemicznymi i dyskusją, w której Arkin brał czynny udział.

Etyczne dylematy są ostatecznie dylematami człowieka – standard tego, czy robot zachowa się lepiej, jest przedmiotem wyłącznie ludzkiej oceny. Praktyka wskazuje jednak co innego.

Arkin przekonywał, że jeśli rozwój broni autonomicznej może przyczynić się do zmniejszenia strat cywilnych, nie można go zakazać. Argumenty, jakie podawał za swoją tezą, były zasadne. Arkin twierdził w swojej polemice, że robot prędzej poświęci siebie niż człowiek, aby uniknąć zagrożenia cudzego życia. Robot uwzględni więcej czynników niż człowiek, jego postępowanie zaś można ściśle kontrolować, w przeciwieństwie do odczuwającego emocje człowieka. Wyciąganie z tych ogólnych założeń szczegółowych zastosowań pokazuje jednak, w czym leży problem. Jeśli robot poświęci siebie, oszczędzając życie jednego cywila i jednego zamachowca, który chwilę później zabije kilkuset cywili – w czym matematyczny rachunek moralności robota jest lepszy bądź gorszy od rachunku, jakiego w tej samej sytuacji musiałby dokonać uzbrojony człowiek? Etyczne dylematy są ostatecznie dylematami człowieka – standard tego, czy robot zachowa się lepiej, jest przedmiotem wyłącznie ludzkiej oceny. Gdyby problemy, jakich rozwiązanie sugeruje zwolennik autonomicznej broni, były w rzeczywistości tak jednoznaczne, etycy byliby bezrobotni.[->]

W praktyce, jak pokazuje nieszczęsny przykład z inteligentnym granatem, wszystkie przewagi, jakie mogłaby mieć nad człowiekiem broń autonomiczna, mają potencjalny charakter i są głęboko dyskusyjne. Mogą być lepsze – nie muszą. Kałasznikow może był lepszy niż muszkiet lub arkebuz, ale według jakiego standardu i czy w ogóle godzi się je porównywać? W sterylnych warunkach laboratorium, gdzie nie podejmuje się żadnych faktycznie śmiercionośnych wyborów, to z pewnością łatwiejsze, niż gdy opłakuje się bliskich, omyłkowo zastrzelonych na ulicy przez policjanta czy uśmierconych przeciwpiechotną miną, niewypałem z dawno zakończonej wojny.

Wiara w dobroczynny potencjał sztucznej inteligencji nie może oznaczać zgody na nowy wyścig zbrojeń.

Wracamy do punktu wyjścia: perfekcyjne równanie z natury źle opisuje nieperfekcyjną rzeczywistość. Polemiści Arkina i jemu podobnych odpowiadają, że dotychczas jako gatunek zwierzęcia nieodporny na omyłki radziliśmy sobie lepiej z zakazywaniem i ograniczaniem ryzykownych zachowań niż projektowaniem niezawodnych, bezbłędnych i odpornych na złe intencje narzędzi.

Spór tak wielki jak ten nie skończy się dzięki jednej kompromitującej (albo genialnej) wypowiedzi. Ale wizja inteligentnego granatu profesora Arkina właśnie zyskała na aktualności jako etyczny problem. Nowy sezon dystopijnego serialu science-fiction Black Mirror uczynił sympatyczne pudełko naszpikowane technologią, czworonożne i po psiemu uparte narzędzie do zabijania, zaprogramowane jakby wprost według naszkicowanej przez Arkina wizji, głównym bohaterem jednego z odcinków. Nie zdradzając puenty, można powiedzieć tyle, że znów fantastyczne czarnowidztwo okazuje się bardziej przenikliwe niż chłodny (pseudo)naukowy namysł.

Jeśli wiemy, że jesteśmy omylni (a z tym zgadzają się chyba wszyscy uczestnicy tego sporu), dlaczego zakładamy, że zdolni jesteśmy stworzyć morderczą technologię bez ryzyka powielenia naszych własnych błędów, uprzedzeń i słabości? A co gorsza, chcemy upierać się, że to właśnie zabójcza maszyna zasługuje na miano faktycznie inteligentnej?