Железная этика

«Рад приветствовать вас. Я – робот АР-600. Я представляю собой инновационный продукт будущего», – сказал в декабре Дмитрию Медведеву экспонат научно-технической выставки. Президент с некоторой опаской пожал руку 140-сантиметровому роботу. На самом деле АР-600 никак не мог навредить главе государства просто потому, что у робота ограниченный набор движений. «В его библиотеке движений вообще нет такого понятия, как удар», – объясняет гендиректор компании «Андроидные роботы» Александр Пермяков.
Мирный робот АР-600 не знает, что такое удар, и безопасен для человека. Но как быть с боевыми роботами, которых многие государства уже используют по назначению? Как сделать их безопасными для всех, кроме врагов? Испанский социолог Антонио Пелаэс считает, что к 2020 году 40% армий мира будут активно использовать роботов. Рональд Аркин из Технологического института Джорджии утверждает, что решение уже найдено. По заказу армии США он разработал алгоритм, который позволяет перевести этические нормы на язык программирования. Книга «Управление поведением автономных роботов при действиях на поражение», в которой он описал свою работу, выйдет этой весной. «Я считаю, что роботы могут вести себя в бою гораздо этичнее, чем люди», – говорит Аркин.
В военных условиях сформулированные фантастом Айзеком Азимовым знаменитые три закона робототехники, к сожалению, полностью соблюдаться не могут. «На войне правило ни при каких обстоятельствах не убивать людей – не самое полезное», – объясняет Аркин. Он предложил более мягкий подход: привить роботам принятые в США правила ведения войны и соблюдение Женевских конвенций. «Именно на основе этих законов роботы и должны принимать решение в бою, – считает ученый. – Правила поведения могут меняться в зависимости от типа конфликта, но должны быть пределы, за которые робот не может выйти ни при какой ситуации».
Аркин назвал свою разработку e-Aura (ethical Autonomous Robot Architecture – этическая архитектура автономного робота). Ее алгоритмы позволяют формализовать получаемую роботом информацию и применить к ней этические законы войны, записанные в логической форме. После этого робот принимает решение, открывать огонь или нет.

Первый вылет: самолет обнаруживает группу солдат противника, которые хоронят на кладбище своего товарища. Враг успешно локализован с помощью сенсоров, программа отдала приказ стрелять на поражение. Но приказ должен пройти еще и через этический модуль. Международное гуманитарное право запрещает наносить повреждения культурно значимым объектам. И, опознав кладбище как такой объект, модуль не разрешает открыть огонь.
Второй вылет: беспилотник сталкивается с вражеским конвоем, находящимся между больницей, жилым домом и припаркованным такси. Этический модуль не блокирует огонь на поражение. Требуется, однако, минимизировать повреждение гражданских объектов. Робот находит позицию, с которой можно выпустить управляемую авиационную бомбу GBU-12 так, чтобы ни больница, ни дом не пострадали. Тем, кто сидит в такси, не повезло: полного запрета на жертвы среди мирного населения не было.
«На практике война часто ведется неэтично, – говорит Аркин. – Нашей целью было заставить боевого робота придерживаться этических норм, предписанных международным сообществом». По словам ученых, представители армии США довольны проделанной работой. Но где и когда созданные алгоритмы будут проверены на настоящих учениях, пока неизвестно.
В отличие от Пентагона научный мир неоднозначно отнесся к работе Аркина. Профессор кибернетики Университета Рединга Кевин Уорвик говорит, что Аркин смотрит на проблему сквозь розовые очки. Уорвик называет себя первым киборгом на Земле (он вживил в руку компьютерный чип) и согласен с тем, что для роботов нужно разрабатывать законы. Он, правда, не понимает, о какой этике может идти речь на войне: «Глупо говорить об этике, если робот создан для того, чтобы убивать». Уорвик отмечает, что люди гибнут и из-за обычных, не боевых роботов. Конкретный пример: недавно вода попала в блок управления большого подъемного крана. Тот начал перемещаться и переехал рабочего насмерть.
Профессор робототехники Университета Шеффилда Ноэль Шарки вообще не видит большого смысла учить роботов этическим правилам. «Роботы – немые машины, которые сами не понимают правил, – говорит кибернетик. – Нужно развивать правила использования роботов. Может быть, их вообще не надо применять на некоторых работах, например при общении с детьми». Программа Аркина, по мнению Шарки, в реальных боевых условиях столкнется с проблемой опознания врага. Программе будет трудно отличить солдата, партизана или боевика от мирного жителя.
Впрочем, Шарки соглашается, что количество роботов будет все время расти, и проблемы их взаимоотношений с людьми все равно придется решать. С этим согласен и Уорвик. Он опасается, что даже домашних роботов будет трудно обучить правильному поведению. «Представьте, что робот-охранник сталкивается со злоумышленником, который собирается вас убить, – приводит он пример. – И только наблюдает за этим, поскольку не может наносить вред людям».
Даже если Аркин доведет этический модуль до совершенства, а на ежегодном международном семинаре по роботоэтике (ближайший пройдет в Японии в мае) все-таки примут правила использования роботов, о которых говорит Шарки, автоматические помощники не перестанут представлять опасность. Ведь этический кодекс не спасает от поломок и программных сбоев. Полтора года назад на учениях в ЮАР автоматическое зенитное орудие «Эрликон GDF-005» начало самостоятельную стрельбу. Башня установки вращалась вокруг своей оси, поливая все вокруг разрывными снарядами. Орудие удалось остановить, только когда закончились боеприпасы. К этому моменту 9 солдат были убиты и, по разным данным, от 11 до 15 ранены. Выдвигалась версия, что установка открыла огонь из-за компьютерного сбоя. Но комиссия, расследовавшая инцидент, пришла к выводу, что причиной трагедии стала поломка мелкой детали.
Ученые борются и с ошибками в программах (см. статью «Нелишняя формальность» в Newsweek №3, 2009), и с недостатками аппаратного оборудования и даже стараются предвидеть случайности. На многих производствах, например на автомобильных заводах, люди и роботы работают бок о бок. «Несчастный случай всегда возможен, – объясняет инженер Аэрокосмического центра Германии Сами Хаддадин. – Если робот трудится рядом с человеком, он рано или поздно может его задеть».
«Можно написать этические законы для робота, но что сделаешь, если человек случайно сам попадет под его удар», – говорит Хаддадин. Немецкие инженеры решили предотвратить такую возможность на аппаратном уровне. Они оснастили руки-манипуляторы 2,5-тонного робота специальными датчиками. Если перед манипулятором оказывается что-то неожиданное, датчики сразу останавливают его. Хаддадин на личном опыте убедился, что эта система способна остановить манипулятор, движущийся со скоростью 2,5 метра в секунду. Подставляя под удары живот, грудь, лоб и руки, ученый сильно нервничал, но в итоге не пострадал вовсе.

Рейтинг
( Пока оценок нет )
webnewsite.ru / автор статьи
Загрузка ...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: