Голосование

    Вопрос:
    В каком году человечество научится лечить рак?


    Варианты ответов:

 

СТАТЬИ

"Голос России". Сергей Дузь. "Роботы-убийцы LARS как зеркало человеческой морали"

22.10.2013

Мы все чаще сталкиваемся с фактами, свидетельствующими об активных разработках автономных систем, способных вести бой без участия человека. Эксперты называют их LARS (Lethal autonomous robotics — смертельные автономные роботы). Среди перспективных направлений военные называют разработку биомиметических систем подводного слежения, малых роботов-дронов, действующих совместно (эта технология на базе "роевого интеллекта" известна как Proliferated Autonomous Weapons); тяжелых безэкипажных наземных машин и т. д.

По мнению аналитиков Пентагона, к 20-му году продукты военных разработок достигнут уровня "полной автономии" от человека при ведении боевых действий, а к 30-му году вырастут до такой степени, что люди окажутся в этой системе самым слабым компонентом.

Проблема в том, за действия этих машин никто не будет нести прямой юридической ответственности. Об этом еще весной нынешнего года заявил представитель Управления Верховного комиссара ООН по правам человека, южноафриканский профессор Кристоф Хайнс. Он не одинок в своей озабоченности опасения профессора разделяют эксперты из Международного комитета по контролю за роботами военного назначения (ICRAC). А ведущая правозащитная организация Human Rights Watch даже запустила специальную кампанию "Остановить роботов-убийц".

Оппоненты отвечают правозащитникам, что технический прогресс остановить невозможно. По большому счету, появление боевых роботов было запрограммировано самим ходом человеческой истории. Эпоха массовых армий и масштабных войн сопровождалась резким снижением эффективности одиночного военнослужащего. Во время русско-японской войны боец с винтовкой попадал в противника один раз из нескольких десятков выстрелов. Во время Второй мировой эта пропорция, по некоторым данным, изменилась до одного попадания на 10 тысяч выстрелов.

Иное дело роботизированные системы. Уже при нынешнем уровне развития они убивают настолько хорошо, насколько им позволяет оружие, программное обеспечение и погода. Как говорится, "одна цель – один выстрел" (что приводит к огромным потерям среди личного состава противника). И никакой опасности для собственных солдат. Правда, техническое несовершенство и человеческий фактор являются причинами трагических сбоев. Но даже при этом технологически развитое государство получает подавляющее, неоспоримое преимущество на любом театре военных действий. Многие эксперты считают, что это преимущество нуждается в юридическом регулировании. Говорит футуролог, разработчик программы Punto Switcher

Сергей Москалев:
"Мы должны признать юридически то, что уже существует на самом деле. Уже давно существуют самонаводящиеся ракеты, самостоятельно принимающие решения о выборе режима полета, о методике противодействия ПРО противника. Эти ракеты после старта действуют автономно".

Правда, до "искусственного интеллекта" этим системам еще далеко. Но "ящик Пандоры" уже открыт: создание полностью автономных боевых роботов является только вопросом времени. И прежде чем запускать их в производство, эксперты призывают сосредоточиться на вопросах, имеющих нравственно-философское измерение, ответы на которые человеку имеет смысл поискать в самом себе.

К примеру, аналитики сомневаются в том, что LARS смогут отличить человека одной национальности в зоне боевых действий от представителя другой, мирного гражданина — от комбатанта. И это вполне естественное опасение, поскольку мы сами часто не в состоянии дать событиям верную оценку. Отсюда, кстати говоря, произрастают причины трагических сбоев в боевом использовании беспилотников, когда операторы не успевали верно интерпретировать информацию.

Разработчики боевых роботов считают их полную независимость от человека главным плюсом. LARS способны в доли секунды принимать решения, на которые оператору потребовалось бы куда больше времени. А отсутствие "человеческого фактора" снижает вероятность ошибки и к тому же исключает человеческие эмоции вроде страха или ненависти. Иными словами, LARS в меньшей степени основывают свои действия на "наиболее вероятном сценарии" — как это делает человек. Просто потому что имеют в распоряжении значительно больший объем информации. И в этом вроде бы их исключительное достоинство.

С другой стороны, если LARS и не способны совершать человеческие ошибки, то они не обладают и той свободой воли, которой от природы наделены люди. Лишенные человеческих чувств, они лишены человеческого опыта. Роботы ограничены той информацией, которую поставляют им их сенсоры. А "человеческие существа хрупки, несовершенны и в самом деле могут вести себя "не по-человечески", но в то же время они способны возвыситься над минимально предъявляемыми требованиями к узаконенному убийству", – считает профессор Кристоф Хайнс. По его мнению, "война без раздумий – это механическая бойня".

Главный риск использования LARS – это потенциальное нарушение правил и обычаев ведения войны. К примеру, роботы не смогут предугадывать последствия тех или иных действий человека и, следовательно, не сумеют распознать перелом в настроении противника, если он в бою с роботом захочет, например, сдаться в плен. В результате роботы будут убивать раненых и сложивших оружие противников. Ведь они свободны не только от ненависти, но и от жалости.

Ученые уже относительно давно пытаются привить культурные императивы бездушному компьютеру. Может ли машина поступать и оценивать свои поступки с точки зрения нравственности? – на этот вопрос пока нет однозначного ответа. Можно вспомнить о знаменитых трех законах робототехники Айзека Азимова, которые, по сути, накладывают на поведение роботов человеческую сетку моральных координат. Но здесь разработчики сталкиваются с фундаментальным противоречием. Мы до сих пор толком не разобрались в самих себе.

Несколько лет назад в журнале International Journal of Reasoning-based Intelligent Systems была опубликована статья, авторы которой обратили внимание общественности на так называемую проблему вагонетки. Ученые моделировали типичную моральную дилемму – возможно ли навредить одному или нескольким людям, чтобы спасти жизни других людей.

Один из экспериментов назывался "свидетель": вагонетка тянется вверх из туннеля автоматическим тросом. Когда она почти достигает вершины, трос обрывался и тележка летит вниз, при этом на ее пути находится 5 человек, которые никак не успевают убежать. Но есть возможность перевести стрелку и пустить вагонетку на запасной путь. При этом погибает шестой человек, который не в курсе происходящего и элементарно не успевает сообразить что к чему. Большинство участников опроса соглашалось с тем, что стрелку перевести необходимо, пожертвовав одним ради пяти.

Второй эксперимент назывался "Пешеходный мост". Ситуация та же, что и в эксперименте "Свидетель", только нет запасного пути. Теперь человек стоит на мосту, под которым проходит путь, по которому несется вагонетка. Можно толкнуть человека на пути перед вагонеткой, тогда она остановится, или не делать ничего, и тогда вагонетка задавит пятерых людей, которые находятся на путях ниже. В этой ситуации вердикт большинства был противоположным: участники сочли недопустимым жертвовать одним ради пяти.

Авторы экспериментов подчеркивают: при одинаковом соотношении жертв и спасенных в казалось бы аналогичных случаях человек принимает два противоречащих друг другу решения. Все решают обстоятельства и моральный императив.

Возникает вопрос, как научить машину мыслить по-человечески, имитировать искания человеческой души (притом что даже среди участников экспериментов не наблюдалось единства мнений при выборе одного из двух вариантов). Говорит генеральный директор практического Центра научной политической мысли и идеологии Степан Сулакшин:

"Этот вопрос прежде всего относится к самому человеку: что есть нравственно в его решении о лишении жизни другого? А уже следующий шаг – использование для этого различных технических устройств. До конца не решены вопросы эвтаназии, абортов, смертной казни.

Думать, что мы в состоянии найти решение для проблемы машинной этики, пока преждевременно. Это поле для дискуссий. Технически эта проблема ставится не в первый раз. А вот этически и морально – она нова.

Общие подходы кажутся очевидными. Человек должен становиться более человечным. Новый вызов, который заключается в предоставлении права техническим устройствам самим миловать или казнить, весьма актуален. Его решение, мне кажется, в том, чтобы задать высший критерий – гуманистичность. Даже в пограничных и неоднозначных проблемах".

Получается, что во многом от нас самих зависит, какими будут роботы вообще, и боевые роботы в частности. Как и любое другое оружие, они сами по себе не представляют угрозы. Угрозу таит в себе человек, полный неразрешимых моральных дилемм. И все то, что он создает своими руками, может быть с одинаковой эффективностью использовано как во имя смерти, так и во имя жизни. Робототехника здесь не исключение.

Читать полностью...

Анонс

"Вечерняя Москва". Василий Плиткин. "Законопроект, регулирующий отношения робота и человека"

Глава комитета Совета Федерации по экономической политике Андрей Кутепов предложил урегулировать взаимоотношения роботов и людей. Вместе с футурологом Сергеем Москалевым разбираемся, зачем нужен такой закон и стоит ли бояться сокращения рабочих мест из-за повальной роботизации. Подробнее...

"Радио России". Однажды мы проснёмся в 1984 году

Василий Белоусов: Президент компании Microsoft предупредил, что жизнь, изображенная в книге Джорджа Оруэлла "1984", может стать реальностью в 2024 году, если законодатели не защитят нас от искусственного интеллекта.
Подробнее...

03 февраля 2021. "Радио России". Почему люди боятся научного прогресса?

Роботизация повседневной жизни, разработки новых видов вооружения, генная инженерия, Большой адронный коллайдер... Почему новации так часто беспокоят население нашей планеты?
Подробнее...

"Вечерняя Москва". Сергей Москалев. "Карнавал или война?"

Сотни лет по всему миру можно наблюдать картину — люди выходят на улицу. Поводы разные — веселиться или бунтовать. В зависимости от настроения власти и протестующих это может длиться несколько дней или месяцев и принимать различные формы от смены строя, грабежа, до невинного карнавала. Подробнее...

"Радио России". "Сигналы точного времени".

Как мы будем жить через 10 после того как закончится пандемия и лет через 50 после того как закончится пандемия. Извлечем ли мы какие-либо уроки или у нас наступит наоборот гиперкомпенсация и мы будем добирать то что потеряли. Подробнее...

"РБК.Тренды". Сергей Москалев. "Как общество потребления становится причиной развития мировых эпидемий"

Это некая форма самообмана, где изобилие является следствием тщательно маскируемого и оберегаемого дефицита. В данном случае принцип проявился не столько в форме потребления товаров, сколько впечатлений: туризм, рестораны, массовые мероприятия. Подробнее...

Телеканал "Звезда". "Главное" с Ольгой Беловой. Сюжет об Арктике

В программе «Главное с Ольгой Беловой». Сюжет об освоении Арктики.
Подробнее...

30 мая 2019. «Радио Звезда». «Профессии будущего»

Президент компании superjob.ru Алексей Захаров, писатель Сергей Лукьяненко, футуролог, основатель caramba.tech Сергей Москалев и ведущий программы "Давайте разберемся" Василий Журавлев, беседуют в студии «Радио Звезда» о том какие профессии уйдут, а в каких профессиях общество будет нуждаться больше всего. Подробнее...

VC.RU Бронислав Танков. "Будущее глазами Кьелла Нордстрёма"

Экономист и бизнес-советник Кьелл Нордстрём прославился своими предсказаниями о будущем мировой экономики. В этом материале рассмотрим прогнозы шведского футуролога. Подробнее...

"Радио России". "Взлетная полоса"

Развитие технологий, автоматизация процессов и внедрение роботов в производство до 2020 года оставят около 75 миллионов человек без работы. При этом новые технологии не создадут дисбаланса на рынке труда и резкого роста безработицы. Подробнее...

"Коммерсант-Lifestyle". Надежда Супрун. «Будущее за теми, кто сможет справляться с большими объемами информации»

Родственники-голограммы, запчасти, распечатанные на 3D-принтере, и капсулы для сна — о будущем совсем близком, но в то же время относительно далеком “Ъ-Lifestyle” рассказал футуролог, координатор проекта Futura.ru и разработчик программы Punto Switcher в компании «Яндекс» Сергей Москалёв.
Подробнее...

Телеканал "Культура". Программа "Наблюдатель" – "Что такое футурология?"

Иногда интересно рассматривать старые журналы с прогнозами футурологов: каким предки видели наше будущее. О том, что нас ждет в будущем, ведущий очередного выпуска программы "Наблюдатель" Алекс Дубас говорит с гостями студии.
Видео

Актуально

© 1998-2012 Futura.ru

Все права защищены.