Александр Федоров

Роботы помогут развить общественную мораль?

Гэри Маркус, профессор психологии Нью-йоркского университета и автор ряда популярных книг, выступил с заявлением о том, что роботы могут помочь человечеству развить собственную этику.

этика роботов

Маркус на страницах The New Yorker пишет о том, что вопрос о машинной этике уже переходит из сферы научной фантастики в сферу сугубо практическую. Недавно в США штат Калифорния допустил выход на улицу автомобилей-роботов, которым уже не нужен водитель. Такие машины пока что являются скорее прототипами и нуждаются в довольно сложной инфраструктуре, но это уже вполне реальная технология и через некоторое время она может стать массовой.

Представьте себе робота, который ведет машину по узкому и скользкому мосту и внезапно замечает едущий навстречу школьный автобус — что надлежит делать в такой ситуации? Если бы, к примеру, напротив была корова, то вариант «плавно притормозить, чтобы минимизировать повреждение машины» был бы оптимален, но в случае с автобусом такой маневр поставит под угрозу жизнь всех пассажиров, так как автобус при столкновении почти наверняка развернет и сбросит вниз.

Передать управление водителю? Это может быть невозможно чисто физически — если до столкновения всего секунда, а человек увлеченно читает книгу, то он просто не успеет принять решение. Сбросить себя в пропасть? Поставить под угрозу жизнь пассажиров автобуса? Это не довольно надуманная ситуация из курса по этике, где по рельсам несется вагонетка, которая может убить либо одного обходчика в тупике, либо бригаду рабочих на основном пути и предлагается решить то, стоит ли перевести стрелку (такие задачи использовались во многих исследованиях по психологии этических решений, т.н. «Проблема вагонетки»). Это та задача, которую надо решить разработчика автомобилей-роботов уже в ближайшие годы.

Другой вопрос касается развития военных роботов. С одной стороны можно понять опасения Human Rights Watch, правозащитной организации, которая боится армий исполняющих любые приказы роботов. Ряд экспериментов, проведенных специалистами по социальной психологии в XX веке показал, что удаленность от жертвы — физическая или эмоциональная — провоцирует насилие и операторы боевых роботов скорее могут пойти на военные преступления, чем присутствующий на поле боя пехотинец. Но, с другой стороны, можно ли считать этичным отправку на поле боя (где, как известно, иногда убивают) живого солдата вместо робота? Если бы воевали одни роботы с другими роботами, потерь среди людей могло бы быть намного меньше, так что Маркус весьма скептически смотрит на предложение запретить автономные боевые устройства. «Мало кто из родителей отправит на фронт своих сыновей или дочерей при наличии альтернативы в виде роботов». Кстати, сложно представить себе робота, который решит вдали от командования заняться мародерством или у которого убили друзей и который одержим жаждой мести.

Боевые роботы и машины без водителей — вполне реальные и актуальные уже в наши дни этико-роботехнические проблемы. Решение которых, как полагает психолог, может существенно помочь нам понять наши собственные этические принципы.

С точки зрения Маркуса сформулированные Айзеком Азимовым «три закона роботехники» (робот не причиняет вреда человеку, робот исполняет все приказы кроме нарушающих первый закон, робот заботится о собственной безопасности, если это не нарушает первых двух законов) далеко не идеальны. Хотя бы тем, что они предполагают у машины по-настоящему развитого сознания, которое способно просчитать все последствия своих действий, и просчитать за миллисекунды, а не минуты или часы.

Кроме того, как быть, например, с роботом-снайпером? Который умеет очень точно стрелять — намного лучше человека, так как руки не дрожат и глаза более острые — и который видит в прицеле удерживающего заложников террориста с бомбой? Получается, что первый закон неизбежно нарушается: либо робот убивает террориста, либо позволяет свои бездействием совершить массовое убийство. И к классику фантастики есть еще одна претензия: его законы описывают скорее рабов, чем свободную сущность... как мы будем действовать тогда, когда сможем создать по-настоящему разумные машины? Да, это будет не завтра и вряд ли в ближайшие десять лет — но все-таки?

Самое интригующее, как считает Маркус — это то, что с определенного момента роботы могут начать сами разбираться в морали. Человеческая мораль эволюционировала и совершенствовалась на протяжении тысячелетий, мы последовательно отказались от рабства и крепостного права, признали равные права мужчин и женщин, перешли от тираний к демократиям и сейчас, например, даже случайно попавшая в жилой квартал бомба вызывает едва ли не международный скандал — хотя еще в годы второй мировой войны все участники не гнушались массовыми бомбардировками. Если над этическими проблемами научится размышлять мозг, который работает в сотни раз быстрее, не приведет ли это нас к каким-то прорывам в области морали?

Детали мира, 2012 г.

См. также:

Предложить интересную новость, объявление, пресс-релиз для публикации »»»