Армия США, которая быстро вооружается самыми передовыми боевыми роботами, заявила, что каждый раз, когда робот будет убивать людей, решение на открытие огня будет приниматься другим человеком.
.
Согласно заявлению Пентагона, американцы не планируют отправлять в бой полностью автоматические боевые машины, которые самостоятельно будут решать: жить том или иному человеку или умирать.
Многочисленные организации по защите прав человека и отдельные граждане опасаются, что технический прогресс в области робототехники приведет к тому, что бездушные машины станут основным инструментом войны. Это поспособствует легкому развязыванию конфликтов и приведет к большим человеческим жертвам.
К счастью, по крайней мере, публично Пентагон одумался, и 21 ноября заместитель министра обороны Эштон Картер подписал ряд инструкций по "минимизации вероятности и последствий сбоев в работе автономных или полуавтономных вооруженных роботов, которые могли бы привести к непредвиденным последствиям".
В данном документе четко прописано, что решение о применении оружия должно приниматься только человеком и ни в коем случае не самой машиной. Кроме того, аппаратное и программное обеспечение, ответственное за управление смертоносным роботом, должно быть максимально защищено от сбоев и вмешательства посторонних. Чтобы получить разрешение открыть огонь, все автоматизированные роботы должны будут уметь обратиться к оператору или своему командиру-человеку. Также командир должен иметь возможность в любой момент миссии вмешаться в действия робота. Если какие-либо вышеуказанные требования не будут выполнены разработчиками роботов, то Пентагон не будет их покупать и использовать.
Новая военная инструкция была символично подписана перед американским праздником, Днем благодарения, когда президент США милует парочку индеек. Получается, что Пентагон сделал куда более широкий жест и помиловал людей, которые могли бы стать беззащитными "индейками" для боевых роботов.
К сожалению, тем, кто боится машин-убийц, рано радоваться. Пентагон – это далеко не единственная организация, которая закупает и использует боевых роботов. Например ЦРУ активно применяет беспилотники для уничтожения террористов и точка зрения данной американской спецслужбы зачастую сильно отличается от подхода военных.
Кроме того, некоторые БПЛА, такие как X-47B недавно прибывший на авианосец USS Harry S. Truman, могут уничтожать заранее запрограммированные цели. Появились ли за время подлета в районе этих целей мирные жители, роботов, естественно, особо не заботит. Также, последние исследования американских специалистов указывают на то, что операторы БПЛА, измученные многочасовым наблюдением за мониторами, совершают много ошибок и иногда стреляют куда ни попадя. Так что нельзя исключать, что массовое использование полностью автоматических боевых машин, принесет меньше бед мирному населению, чем тысячи операторов, которые слишком часто ошибаются.
Скорее всего, решение о наделении роботов "смертельными полномочиями" все же будет в будущем принято. Хотя бы по той простой причине, что машины производят огромное количество информации. Перспективные БПЛА, за мгновение ока охватывающие взглядом более 90 кв. км поверхности, будут снимать видео общей протяженностью около 80 лет каждый день. Чтобы просмотреть всю эту информацию, потребуются десятки тысяч операторов, работающих круглосуточно. Вряд ли военные найдут несколько миллионов операторов для всей киберармии, и уж тем более не откажутся от ее создания. Так что с каждым годом компьютеры будут брать на себя все больше боевых задач, а принятие решения на открытие огня совсем скоро станет формальностью, основанной на выводах машинной логики.
http://rnd.cnews.ru/news/top/index_science.shtml?2012/11/30/511421
.
Согласно заявлению Пентагона, американцы не планируют отправлять в бой полностью автоматические боевые машины, которые самостоятельно будут решать: жить том или иному человеку или умирать.
Многочисленные организации по защите прав человека и отдельные граждане опасаются, что технический прогресс в области робототехники приведет к тому, что бездушные машины станут основным инструментом войны. Это поспособствует легкому развязыванию конфликтов и приведет к большим человеческим жертвам.
К счастью, по крайней мере, публично Пентагон одумался, и 21 ноября заместитель министра обороны Эштон Картер подписал ряд инструкций по "минимизации вероятности и последствий сбоев в работе автономных или полуавтономных вооруженных роботов, которые могли бы привести к непредвиденным последствиям".
В данном документе четко прописано, что решение о применении оружия должно приниматься только человеком и ни в коем случае не самой машиной. Кроме того, аппаратное и программное обеспечение, ответственное за управление смертоносным роботом, должно быть максимально защищено от сбоев и вмешательства посторонних. Чтобы получить разрешение открыть огонь, все автоматизированные роботы должны будут уметь обратиться к оператору или своему командиру-человеку. Также командир должен иметь возможность в любой момент миссии вмешаться в действия робота. Если какие-либо вышеуказанные требования не будут выполнены разработчиками роботов, то Пентагон не будет их покупать и использовать.
Новая военная инструкция была символично подписана перед американским праздником, Днем благодарения, когда президент США милует парочку индеек. Получается, что Пентагон сделал куда более широкий жест и помиловал людей, которые могли бы стать беззащитными "индейками" для боевых роботов.
К сожалению, тем, кто боится машин-убийц, рано радоваться. Пентагон – это далеко не единственная организация, которая закупает и использует боевых роботов. Например ЦРУ активно применяет беспилотники для уничтожения террористов и точка зрения данной американской спецслужбы зачастую сильно отличается от подхода военных.
Кроме того, некоторые БПЛА, такие как X-47B недавно прибывший на авианосец USS Harry S. Truman, могут уничтожать заранее запрограммированные цели. Появились ли за время подлета в районе этих целей мирные жители, роботов, естественно, особо не заботит. Также, последние исследования американских специалистов указывают на то, что операторы БПЛА, измученные многочасовым наблюдением за мониторами, совершают много ошибок и иногда стреляют куда ни попадя. Так что нельзя исключать, что массовое использование полностью автоматических боевых машин, принесет меньше бед мирному населению, чем тысячи операторов, которые слишком часто ошибаются.
Скорее всего, решение о наделении роботов "смертельными полномочиями" все же будет в будущем принято. Хотя бы по той простой причине, что машины производят огромное количество информации. Перспективные БПЛА, за мгновение ока охватывающие взглядом более 90 кв. км поверхности, будут снимать видео общей протяженностью около 80 лет каждый день. Чтобы просмотреть всю эту информацию, потребуются десятки тысяч операторов, работающих круглосуточно. Вряд ли военные найдут несколько миллионов операторов для всей киберармии, и уж тем более не откажутся от ее создания. Так что с каждым годом компьютеры будут брать на себя все больше боевых задач, а принятие решения на открытие огня совсем скоро станет формальностью, основанной на выводах машинной логики.
http://rnd.cnews.ru/news/top/index_science.shtml?2012/11/30/511421