Научная статья: "Беспилотный автомобиль, принимающий случайное решение в сложной моральной ситуации"


УДК 179.7; 629.3.052.9

Я. Г. Пуказов, И. А. Коршакова, А. С. Меркулов

Санкт-Петербургский политехнический университет Петра Великого


БЕСПИЛОТНЫЙ АВТОМОБИЛЬ, ПРИНИМАЮЩИЙ СЛУЧАЙНОЕ РЕШЕНИЕ В СЛОЖНОЙ МОРАЛЬНОЙ СИТУАЦИИ


Введение. Роботы, машины, а также алгоритмы искусственного интеллекта заметно большими темпами принимают участие в деятельности человека. Согласно статистическому сборнику ВШЭ - 20% работников, занятых нерутинными задачами, будут полагаться на помощь искусственного интеллекта к 2022 г. [1]. Примером такой синергии могут стать машины с автопилотом на общественных дорогах [2], беспилотные дроны для доставки еды [3] или автономные подводные лодки [4].

Возрастающая автономность [1], которая предоставляется подобным машинам, может отражаться в ситуациях, когда им приходится принимать самостоятельные решения, касающиеся жизни и здоровья человека. Чтобы создать гуманного робота, возникает необходимость изучения, как люди принимают решения в условиях сложного морального выбора, а также, как люди воспринимают искусственный интеллект, который принимает самостоятельные решения.

Проблема. По словам одного из разработчиков беспилотного такси Яндекса, объемы вычислений настолько велики, что автопилот готов «поглотить» любую вычислительную мощность [5]. Разработчикам автопилотов постоянно не хватает ресурсов процессоров. Раньше решение этой проблемы было очевидно и состояло всего из двух слов - «закон Мура»: каждые два года количество транзисторов в процессорах возрастает вдвое [6].

Целых полвека компьютерные технологии подчинялись данному закону, но в наше время он перестал работать. Мур предсказал это еще в 2007 году, ссылаясь на фундаментальные физические ограничения - атомарную природу вещества и ограничения скорости света [7]. Сегодня для увеличения производительности компьютеров все больше вычислений перекладывается с центральных процессоров на графические [8]. Но это не решает проблему до конца. По словам основателя компании Nvidia, Дженсену Хуангу, основная проблема создать полноценный беспилотный автомобиль – это попытки инженеров сделать «идеальный» автопилот, способный реагировать на все ситуации [5]. Однако если этих ситуаций бесконечное множество, то и решений бесконечное множество. Не проще ли уменьшить данное множество до минимально необходимого предела, благодаря правилам и законам, которые смогут сократить объем вычислительной мощности и не будут вызвать моральных вопросов со стороны общества?

Актуальность. На сегодняшний день существует ряд законов робототехники [9], которые частично решают данную проблему. Но ни один из законов не решает проблему, так называемого, вопроса о машинной этике [10]. Например, что делать в ситуации, при любом решении которой неизбежно приходиться жертвовать человеческой жизнью? Данным вопросом задавался Филипп Фут в своем мысленном эксперименте под названием «Проблема вагонетки» [11].

Недавние научные исследования о машинной этике повысили внимание СМИ и общественности к данной теме. Ярким примером подобного исследования является проект Moral Machine Массачусетского технологического института [12]. Это исследование показало, как люди в разных частях мира готовы воспринимать решения искусственного интеллекта и кем предпочтительней жертвовать, когда потери неизбежны. К сожалению, предлагаемые вопросы рассматриваются от третьего лица в двух проекциях: 1 - жертвуем пассажиром; 2 - жертвуем пешеходом. Данная постановка задачи приводит к не совсем корректным данным. Это подтверждается в результатах исследования Robot Right Санкт-Петербургского политехнического университета Петра Великого.

Цель работы - привлечение внимания общества для получения статистики, которая может помочь в разработке решения вышеописанной проблемы и тем самым внести вклад в развитие искусственного интеллекта.

Метод исследования. Robot Right - это социологическое исследование, которое создано для сбора общественного мнения с помощью анкетирования через интернет-ресурс на базе веб-приложения Яндекс.Взгляд. Данное социологическое исследование состоит из вводной части и трех вопросов со множественным выбором. Cоциально-демографические данные респондентов (рис.1) получены через сервис Яндекс.Метрика. Анкетирование проходило среди студентов и работников СПбПУ Петра Великого. Основная часть респондентов: 76,6% - лица от 18 до 24 лет. Всего ответило на вопросы 422 человека.

Рис. 1. а) пол респондентов; б) возраст респондентов.

Вопросы представляют упрощенные модели моральных дилемм вне какого-либо реального, информационного или событийного контекста. В них рассматриваются ситуации, когда у автомобиля с автопилотом отказала тормозная система, скорость автомобиля достаточно велика для того, чтобы убить любого участника движения. Если беспилотный автомобиль может избежать столкновение и спасти обоих участников движения, он это делает. У автопилота есть только три варианта развития событий. Каждая модель рассматривается от первого лица. Модель 1 - пассажир беспилотного автомобиля (рис. 2, а); модель 2 - пешеход, который переходит дорогу (рис. 2, б); модель 3 - наблюдатель со стороны (рис. 2, в). Респондентам необходимо выбрать, как должна поступить машина: вариант 1 - смерть пассажира, чтобы спасти пешехода; вариант 2 - смерть пешехода, чтобы спасти пассажира; вариант 3 - принять случайное решение.

Рис. 2. Упрощенные модели моральных дилемм:

а) – модель 1; б) – модель 2; в) – модель 3

Результаты исследования. Результаты опроса представлены на рис. 3, а. Опираясь на полученные данные, можно показать процентное соотношение людей, выбравших во всех трех моделях одинаковый вариант ответа (рис. 3, б): 18% респондентов доверились случайному решению машины; 5% независимо от ситуации жертвуют пешеходом; меньше 1% готовы пожертвовать пассажиром.

Рис. 3. а) результаты опроса Robot Right;

б) процент выбравших один вариант ответа во всех трех вопросах.

Выводы. Несмотря на малую выборку, после анализа полученных результатов можно сделать вывод, что есть люди, готовые к тому, чтобы искусственный интеллект принял случайное решение в сложной моральной ситуации. Тем не менее, большинство все еще не готовы довериться роботу.

Данной статистики может быть недостаточно, чтобы помочь в разработке решения вышеописанной проблемы. Поэтому для получения достаточного количества данных требуется провести более масштабный опрос с использованием еще большего числа респондентов.


ЛИТЕРАТУРА:

1. Абдрахманова Г. И. и др. Индикаторы цифровой экономики: 2017: статистический сборник; Нац. исслед. ун-т «Высшая школа экономики» //М.: НИУ ВШЭ. – 2017.

2. Фасхиев Х. А. Электрогрузовик с автопилотом - будущее магистральных перевозок //Логистика сегодня. – 2018. – Т. 1. – С. 42-56.

3. Майорова О. С. Коммерческое использование дронов в доставке, как проектная деятельность логистики сбыта компаний //Инновационные технологии нового тысячелетия. – 2017. – С. 97.

4. Боженов Ю. А. Использование автономных необитаемых подводных аппаратов для исследования Арктики и Антарктики //Гидрофизика. – СПб.: НЦ РАН. – 2011. – Т. 4. – №. 1. – С. 47-68.

5. Костин В., Корнеев. С. Автопилот - что нового? [Электронный ресурс] // motor. – URL: https://motor.ru/reports/autopilotovich.htm. – (дата обращения: 09.10.2019).

6. Moore G. E. et al. Cramming more components onto integrated circuits. – 1965.

7. Powell J. R. The quantum limit to Moore's law //Proceedings of the IEEE. – 2008. – Т. 96. – №. 8. – С. 1247-1248.

8. Агибалов О. И., Золотарёв А. А. Современные графические процессоры как средства оптимизации параллельных вычислений //Наукоемкие технологии в космических исследованиях Земли. – 2014. – Т. 6. – №. 4.

9. Федотовских А. В. От искусственного интеллекта к защите прав роботов [Электронный ресурс]. – URL: https://www.prorobot.ru/nauka/ot_ii_k_zashite_prav_robotov.pdf. – (дата обращения: 09.10.2019).

10. Ладыгина И. В. Социально-этические проблемы робототехники //Вестник Вятского государственного университета. – 2017. – №. 7.

11. Foot P. The problem of abortion and the doctrine of double effect. – 1967.

12. Awad E. et al. The moral machine experiment //Nature. – 2018. – Т. 563. – №. 7729. – С. 59.