Zamknij

Chcą zakazać śmiertelnie niebezpiecznych robotów wojskowych. Czy słusznie? [SONDA]

Redakcja
28.08.2018 15:14
Chcą zakazać śmiertelnie niebezpiecznych robotów wojskowych. Czy słusznie? [SONDA]
fot. YouTube

Uczestnicy trwającej właśnie w Genewie międzynarodowej konferencji dotyczącej autonomicznych systemów uzbrojenia mają zająć stanowisko wobec coraz groźniejszych maszyn przyszłości.

Międzynarodowa konferencja w Genewie

Odbywająca się w siedzibie ONZ w Genewie konferencja dotycząca autonomicznych systemów uzbrojenia ma przynieść efekty w postaci wypracowania wspólnego stanowiska wobec śmiertelnie niebezpiecznych robotów-zabójców. Technologia na tym polu ma imponujące, ale i złowieszcze możliwości. Uczestnicy konferencji muszą więc zdecydować, czy ryzyko związane z ich wykorzystywaniem nie jest na tyle duże, aby zagrozić światowemu bezpieczeństwu. Przedstawiciel niemieckiej organizacji „Facing Finance”, Thomas Küchenmeister, podkreśla, że już obecne modele autonomicznych maszyn wojskowych, np. uzbrojone drony, dają niebezpieczne możliwości.

Zobacz także

Czy autonomiczne roboty wojskowe powinny zostać zakazane?

Przemysł zbrojeniowy czerpie z najnowszych rozwiązań w zakresie sztucznej inteligencji pełnymi garściami. Dowodami na to są kolejne śmiertelnie groźne modele maszyn, takich jak np. „Iwan”. Humanoidalny robot-żołnierz to jedno z najświeższych osiągnięć rosyjskich inżynierów. „Rosyjski Terminator” potrafi strzelać, jeździ samochodem i rozumie, co się do niego mówi. Jest przerażająco skuteczny i podobny do człowieka. To właśnie, zdaniem organizacji biorącej udział w międzynarodowej kampanii „Stop Killer Robots”, najlepszy przykład inteligentnej maszyny do zabijania.

Zagłosuj

Czy autonomiczne systemy zbrojeniowe powinny zostać zakazane?

Liczba głosów:

Zaledwie kilka dni temu sieć obiegły też materiały z podmoskiewskiego Forum Wojskowo-Technicznego Armia 2018, na którym rosyjskie wojsko zaprezentowało prototyp „Igorka”. Ważąca 4,5 tony maszyna ma być m.in. kuloodporna, a koniec pierwszej fazy tego projektu przewiduje się już na 2020 rok. 

Zobacz także

Co nam grozi?

Prowadzenie wojny opiera się na regulacjach, których zadaniem jest minimalizować szkody z nią związane i chronić ludność cywilną. Tymczasem maszyny trudno „nauczyć” ich bezwzględnego przestrzegania. Innymi słowy, nie mamy żadnej gwarancji, że autonomiczna maszyna nie zaatakuje zwykłych obywateli. „Przecież nie da się im wszczepić mikroczipu z prawem międzynarodowym” – ironizował Küchenmeister. Trudno odmówić mu racji – cały sposób działania autonomicznej broni polega na tym, aby maszyna była w stanie samodzielnie namierzyć i skutecznie zlikwidować wybrany cel. Dodajmy do tego coraz lepsze parametry techniczne, zwiększające szybkość i precyzję ich działania, i konsekwencje możemy łatwo sobie wyobrazić. Tymczasem dyskusja na temat tzw. LAWS, czyli autonomicznych systemów uzbrojenia, ciągnie się już od 2014 roku. W ubiegłym roku poczyniono jednak postęp, nadając rokowaniom formalny charakter. Teraz może nadejść czas na konkretne, poważne decyzje. Za zakazem opowiada się aktualnie 26 państw, przy czym ich stanowisko poparło ponad 230 organizacji oraz 3 tys. osób w postaci szanowanych ekspertów w różnych dziedzinach, które podpisały petycję w tej sprawie opracowaną przez amerykański instytut Future of Life. 

RadioZET.pl/źródło:DW/AG

Zobacz także

Zobacz także