Mail.RuПочтаМой МирОдноклассникиИгрыЗнакомстваНовостиПоискВсе проекты
17 августа
Volvo XC60 2.4 D5 AWD AT
Второй автомобиль Volvo в нашей семье, до этого 8 лет владели XC90 D5 AWD AT, которой были безмерно довольны, за 8 лет ни одной поломки, очень удобный, тишина и комфорт в салоне, отлично управлялся...
3.0
17 августа
Ford Focus 1.6 115hp MT
Практически моя первая иномарка. Купил новый. Отзыв пишу поменяв уже несколько других машин по памяти. Приятная отделка салона. На механике хорошая динамика. Неплохая шумоизоляция. Продал в 2012 году...
4.7
Все отзывы
Рассылка
Подпишитесь на рассылку Авто Mail.Ru, чтобы быть в курсе главных новостей и новинок в мире автомобилей
19 января 2017 14:21, Новости

Ученые предложили выбрать, кого должен убить беспилотный автомобиль

Эксперты хотят понять, как научить самоуправляемые автомобили принимать правильные решения с точки зрения морали

Представьте, что у вашего автомобиля отказали тормоза. И перед вами встает выбор: сбить переходящих дорогу пятерых пожилых людей или свернуть в сторону, задавив женщину с коляской. А что в такой ситуации должен сделать беспилотный автомобиль, задались вопросом в Массачусетском технологическом институте США. Ученые решили выяснить, как беспилотные автомобили должны решать вопрос о жизни и смерти, не идя вразрез с общественной моралью.

Для того, чтобы понять, как люди поступили в той или иной критической ситуации, сотрудники института разработали специальную игру — Moral Machine. Тест доступен онлайн для всех желающих (в том числе и на русском языке). В игре моделируется ситуация, когда самоуправляемый автомобиль вышел из-под контроля, а искусственный интеллект должен сделать свой выбор.

Во время загрузки произошла ошибка.

Всего в тесте представлены 13 ситуаций, в каждой из которых необходимо решить, кого — пешеходов или пассажиров — оставить в живых. Авторы проекта намерены через ответы реальных пользователей понять, какая моральная оценка общества на то или иной действие. Это понимание, считают ученые, в будущем позволит смоделировать возможное поведение компьютера, управляющего беспилотным автомобилем.

Например, в одной из ситуаций необходимо решить, кто из двух пешеходов останется в живых. Дорогу переходят одновременно молодой и пожилой мужчина. В кого из них должен поехать самоуправляемый автомобиль, потерявший контроль?

Другой слайд моделируют ситуацию, когда две группы пешеходов переходят дорогу на красный и зеленый свет. В этом случае вопрос встает, кого оставить в живых переходящих на красный или зеленый сигнал светофора.

Кроме того, пользователям предлагают выбрать между жизнями животного и человека. Также моделируются ситуации, когда пользователь должен сделать выбор между жизнью водителя и пешехода. В конце теста пользователь может увидеть результаты, показывающие, кого чаще он предпочитал оставить в живых и наоборот.

На сегодняшний день Moral Machine собрала уже более 11 млн возможных сценариев из ответов пользователей. Разработчики теста считают, что их наработки помогут достичь равновесия законодательства, морального комфорта и общественной безопасности в вопросе использования беспилотных транспортных средств.

Подпишитесь на новую рассылку Авто Mail.Ru, чтобы быть в курсе главных новостей и новинок в мире автомобилей
Комментарии
196
Широков Максим
Кошмарный тест, чувствуешь себя маньяком :-) Все равно ИИ не сможет адекватно отреагировать на данные сценарии.
СсылкаПожаловаться
Ван Ваныч
А тормозить в отбойники у них на ум вообще не приходит - только в людей!!! ДБЛ БЛѢ...
СсылкаПожаловаться
Elchin Tehmezov
В таких случаях самый верный вариант торможение двигателем. Пусть движок пойдет в разнос. За то меньше шансов убить. Или же рисковать пасажирами. Вид в автомобиле и так есть системы защиты пасажиров. Для второго случая можно построит алгоритм чтобы автомобил расчитал угол стллькнлвение так, чтобы снизить ущерб пл расажирам.
СсылкаПожаловаться
Чтобы оставить комментарий, вам нужно авторизоваться.
Подпишитесь на нас
Новости от Авто Mail.Ru