
{"id":3323,"date":"2017-08-21T07:42:49","date_gmt":"2017-08-21T05:42:49","guid":{"rendered":"http:\/\/antymatrix.blog.polityka.pl\/?p=3323"},"modified":"2017-08-21T23:38:45","modified_gmt":"2017-08-21T21:38:45","slug":"powstrzymac-maszyne-zaglady-apel","status":"publish","type":"post","link":"https:\/\/blog.polityka.pl\/antymatrix\/2017\/08\/21\/powstrzymac-maszyne-zaglady-apel\/","title":{"rendered":"Powstrzyma\u0107 maszyn\u0119 zag\u0142ady &#8211; apel"},"content":{"rendered":"<div id=\"attachment_3324\" style=\"width: 630px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/pl.wikipedia.org\/wiki\/Terminator_(film)#\/media\/File:Terminator_T-800_armed.JPG\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-3324\" class=\"wp-image-3324 size-large\" src=\"\/wp-content\/uploads\/2017\/08\/Terminator_T-800_armed-765x1024.jpg\" alt=\"\" width=\"620\" height=\"830\" srcset=\"\/antymatrix\/wp-content\/uploads\/2017\/08\/Terminator_T-800_armed-765x1024.jpg 765w, \/antymatrix\/wp-content\/uploads\/2017\/08\/Terminator_T-800_armed-224x300.jpg 224w, \/antymatrix\/wp-content\/uploads\/2017\/08\/Terminator_T-800_armed-768x1028.jpg 768w, \/antymatrix\/wp-content\/uploads\/2017\/08\/Terminator_T-800_armed.jpg 1012w\" sizes=\"(max-width: 620px) 100vw, 620px\" \/><\/a><p id=\"caption-attachment-3324\" class=\"wp-caption-text\">Aut. MG Siegler, CC BY 2.0<\/p><\/div>\n<p>Zatrzymajmy prac\u0119 nad robotami-zab\u00f3jcami! &#8211; zaapelowa\u0142o <a href=\"https:\/\/futureoflife.org\/2017\/08\/20\/killer-robots-worlds-top-ai-robotics-companies-urge-united-nations-ban-lethal-autonomous-weapons\/\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>116 ekspert\u00f3w w li\u015bcie otwartym<\/strong> <\/a>na rozpocz\u0119cie w Melbourne IJCAI-17, konferencji po\u015bwi\u0119conej sztucznej inteligencji. Automatyczni zab\u00f3jcy, gdy raz znajd\u0105 si\u0119 w &#8222;ekosystemie&#8221;, ju\u017c nigdy z niego nie znikn\u0105, a utrzymanie nad nimi kontroli b\u0119dzie bardzo trudne &#8211; ostrzegaj\u0105 sygnatariusze.<br \/>\n<!--more--><br \/>\nTo ju\u017c kolejny taki apel, poprzedni odnosz\u0105cy si\u0119 do rozwoju sztucznej inteligencji (r\u00f3wnie\u017c w kontek\u015bcie autonomicznego uzbrojenia) zosta\u0142 <a href=\"https:\/\/futureoflife.org\/open-letter-autonomous-weapons\/\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>og\u0142oszony dwa lata temu,<\/strong><\/a> r\u00f3wnie\u017c na IJCAI, a w\u00f3wczas w\u015br\u00f3d ponad tysi\u0105ca sygnatariuszy znalaz\u0142 si\u0119 m.in. Stephen Hawking.<\/p>\n<p>Obecny apel dotyczy konkretnego aspektu rozwoju system\u00f3w autonomicznych &#8211; robotycznego uzbrojenia, kt\u00f3re jest intensywnie rozwijane na ca\u0142ym \u015bwiecie. Brytyjski <a href=\"https:\/\/www.theguardian.com\/technology\/2017\/aug\/20\/elon-musk-killer-robots-experts-outright-ban-lethal-autonomous-weapons-war\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>&#8222;Guardian&#8221; w swym komentarzu<\/strong><\/a> podaje przyk\u0142ady samostrzelaj\u0105cych karabin\u00f3w Sam\u00adsung\u2019s SGR-A1 przeznaczonych do ochrony granicy z Kore\u0105 P\u00f3\u0142nocn\u0105, brytyjskich dron\u00f3w Taranis czy rosyjskich pojazd\u00f3w bojowych Uran-9.<\/p>\n<p><iframe loading=\"lazy\" title=\"combat robotic system Uran-9\" width=\"1778\" height=\"1000\" src=\"https:\/\/www.youtube.com\/embed\/VBC9BM4-3Ek?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture\" allowfullscreen><\/iframe><\/p>\n<p>Autorzy apelu skierowanego do Organizacji Narod\u00f3w Zjednoczonych pisz\u0105:<\/p>\n<blockquote><p>Lethal autonomous weapons threaten to become the third revolution in warfare. Once developed, they will permit armed conflict to be fought at a scale greater than ever, and at timescales faster than humans can comprehend. These can be weapons of terror, weapons that despots and terrorists use against innocent populations, and weapons hacked to behave in undesirable ways. We do not have long to act. Once this Pandora\u2019s box is opened, it will be hard to close.<\/p><\/blockquote>\n<p>Problemem nie jest tylko kontrola samych system\u00f3w przed ich przej\u0119ciem np. przez terroryst\u00f3w. W rozwa\u017caniach o &#8222;wojnie wirtualnej&#8221;, kt\u00f3rych klasycznym wyrazem jest ksi\u0105\u017cka <a href=\"https:\/\/www.c-span.org\/video\/?157120-1\/virtual-war\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>&#8222;Virtual War&#8221; Michaela Ignatieffa z 2000 r., pojawia si\u0119 kwestia politycznych koszt\u00f3w wojny<\/strong><\/a>.<\/p>\n<p>W spo\u0142ecze\u0144stwach demokratycznych koszt najwi\u0119kszy wi\u0105\u017ce si\u0119 z ofiarami ludzkimi (a konkretnie: poleg\u0142ymi \u017co\u0142nierzami). Technologie wojny na odleg\u0142o\u015b\u0107 zmniejszaj\u0105 potrzeb\u0119 bezpo\u015bredniego zaanga\u017cowania \u017co\u0142nierzy na polu walki, automatyzacja idzie jeszcze dalej. To z kolei mo\u017ce prowadzi\u0107 do militaryzacji spo\u0142ecze\u0144stw demokratycznych, gdy nabior\u0105 apetytu do rozwi\u0105zywania problem\u00f3w mi\u0119dzynarodowych metod\u0105 interwencji zbrojnych.<\/p>\n<p>Zautomatyzowana wojna przestaje by\u0107 cz\u0119\u015bci\u0105 polityki, staje si\u0119 technicznym instrumentem zarz\u0105dzania \u015bwiatem i ulega industrializacji. Oczywi\u015bcie, takie kalkulacje opieraj\u0105 si\u0119 na z\u0142udzeniu mo\u017cliwo\u015bci kontroli arsena\u0142u w &#8222;dobrych r\u0119kach&#8221;. Nawet je\u015bli taka kontrola b\u0119dzie przez jaki\u015b czas skuteczna, struktury polityczne pozbawione dost\u0119pu do nowego uzbrojenia rozwija\u0107 b\u0119d\u0105 nowe formy &#8222;uzbrojenia ubogich&#8221;, o czym przekonali si\u0119 Amerykanie w Iraku, gdy odpowiedzi\u0105 na ich &#8222;smart weapons&#8221; sta\u0142y si\u0119 bomby pu\u0142apki oraz samob\u00f3jcze ataki terrorystyczne.<\/p>\n<p>Czy apel odniesie wi\u0119c skutek? Czy te\u017c raczej pod\u0105\u017camy w przysz\u0142o\u015b\u0107 zgodnie z logik\u0105 z filmu <a href=\"http:\/\/www.filmweb.pl\/film\/Doktor+Strangelove%2C+lub+jak+przesta%C5%82em+si%C4%99+martwi%C4%87+i+pokocha%C5%82em+bomb%C4%99-1964-5185\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>&#8222;Dr. Strangelove, lub jak przesta\u0142em si\u0119 martwi\u0107 i pokocha\u0142em bomb\u0119 atomow\u0105&#8221;<\/strong><\/a>.\u00a0 <del>Warunkiem pokoju na ziemi ma by\u0107 Doomsday Machine, system automatycznej odpowiedzi na sowiecki atak nuklearny. Przekonanie o nieuchronno\u015bci automatycznego odwetu zgodnie z doktryn\u0105 MAD (Mutually Assured Destruction) ma powstrzyma\u0107 Kreml przed atakiem. Co jednak, gdy system wymknie si\u0119 spod kontroli?<\/del>\u00a0Tu oczywista pomy\u0142ka, dzi\u0119ki za zwr\u00f3cenie uwagi &#8211; Doomsday Machine, czyli automatyczny system odpowiedzi na atak, nale\u017ca\u0142a do Zwi\u0105zku Sowieckiego. Oczywi\u015bcie produkcje science fiction temat ten przerabia\u0142y na wiele sposob\u00f3w, nadszed\u0142 czas sprawdzenia tych wizji w praktyce.<\/p>\n<p><iframe loading=\"lazy\" title=\"End of Strangelove\" width=\"1333\" height=\"1000\" src=\"https:\/\/www.youtube.com\/embed\/iSZJbJ4Mfis?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture\" allowfullscreen><\/iframe><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Zatrzymajmy prac\u0119 nad robotami-zab\u00f3jcami! &#8211; zaapelowa\u0142o 116 ekspert\u00f3w w li\u015bcie otwartym na rozpocz\u0119cie w Melbourne IJCAI-17, konferencji po\u015bwi\u0119conej sztucznej inteligencji. Automatyczni zab\u00f3jcy, gdy raz znajd\u0105 si\u0119 w &#8222;ekosystemie&#8221;, ju\u017c nigdy z niego nie znikn\u0105, a utrzymanie nad nimi kontroli b\u0119dzie bardzo trudne &#8211; ostrzegaj\u0105 sygnatariusze.<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[98,219,49,8,95,6,86,16,268,167],"tags":[],"_links":{"self":[{"href":"https:\/\/blog.polityka.pl\/antymatrix\/wp-json\/wp\/v2\/posts\/3323"}],"collection":[{"href":"https:\/\/blog.polityka.pl\/antymatrix\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.polityka.pl\/antymatrix\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.polityka.pl\/antymatrix\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.polityka.pl\/antymatrix\/wp-json\/wp\/v2\/comments?post=3323"}],"version-history":[{"count":6,"href":"https:\/\/blog.polityka.pl\/antymatrix\/wp-json\/wp\/v2\/posts\/3323\/revisions"}],"predecessor-version":[{"id":3338,"href":"https:\/\/blog.polityka.pl\/antymatrix\/wp-json\/wp\/v2\/posts\/3323\/revisions\/3338"}],"wp:attachment":[{"href":"https:\/\/blog.polityka.pl\/antymatrix\/wp-json\/wp\/v2\/media?parent=3323"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.polityka.pl\/antymatrix\/wp-json\/wp\/v2\/categories?post=3323"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.polityka.pl\/antymatrix\/wp-json\/wp\/v2\/tags?post=3323"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}