За последние несколько десятилетий в процедурах безопасности автомобилей произошли значительные улучшения. Производители включают амортизирующие внешние панели, деформируемую переднюю часть и усиленные бамперы для защиты пассажиров внутри. Однако по мере того, как автомобили становятся все более совершенными, искусственный интеллект (ИИ) постепенно внедряется в наши транспортные средства.
Для многих, кто вырос, наблюдая за The Jetsons или знакомством с Робинсонами, кажется, что наши любимые футуристические фэнтезийные миры не за горами. Однако логистика, стоящая за полностью автоматизированным беспилотным автомобилем, действительно вызывает некоторые противоречия между тем, как работает человеческий мозг, и компьютерным кодом.
Итак, как такое различие в менталитете может вызвать потенциальные проблемы в дальнейшем развитии автоматизированных транспортных средств? Давайте взглянем на науку.
Человеческий мозг ПРОТИВ искусственного интеллекта
В настоящее время искусственный интеллект не имеет власти над человеческим мозгом. Люди обладают несколькими уникальными способностями, которые компьютеры пока просто не могут полностью обработать, в частности логикой, восприятием и принятием решений.
Хотя компьютеры могут “учиться”, они получают свое образование совершенно иным способом, чем люди. Лучший способ объяснить, как обучается ИИ, — это использовать двух ботов: учителя и конструктора. Конструктор создает несколько ботов, используя разные виды кода, сообщающего боту, что делать. Затем боты отправляются к боту-преподавателю для тестирования. Те, кто терпит неудачу, уничтожаются, а те, кто добивается успеха, возвращаются боту-конструктору для доработки. Этот цикл будет повторяться в течение нескольких раундов, и именно так создаются программное обеспечение для распознавания фотографий, алгоритмы социальных сетей и ряд других компьютерных процессов.
Это образование позволяет компьютерам “учиться”, но есть определенные вещи, которым робота просто невозможно научить. ИИ не может использовать логику для вывода выводов или использовать логику для принятия рациональных решений. Поскольку люди обладают этими способностями, мы можем использовать окружающую нас информацию и определять наилучший курс действий.
Эта способность принимать решения, основанные на логике, подпитывается нашей способностью собирать информацию, которая затем используется для принятия обоснованных решений.. У людей также есть преимущество, когда дело касается наших органов чувств. Когда нас сбивает другая машина, мы видим и слышим, как она со свистом проезжает мимо. Когда в автомобиле происходит утечка бензина, мы чувствуем, что что-то не так, и останавливаемся.
Компьютеры по своей природе не способны чувствовать (по крайней мере, пока). Хотя вокруг автомобиля могут быть установлены камеры, легкая царапина или помятость крыла могут не быть зарегистрированы компьютером, и автомобиль может продолжить движение.
Это особенно страшно в случаях, когда кто-то получает травму, например, маленькое животное или ребенок. Если автомобиль зарегистрирует эту ситуацию как простую выбоину или скачок скорости, транспортное средство может продолжить движение, не зарегистрировав аварию.
Наряду с улучшенными органами чувств, люди обладают способностью принимать решения, которой системы искусственного интеллекта просто не обладают. Компьютеры функционируют по ряду команд – если это происходит, то сделай это, и так далее. Поскольку ИИ не хватает здравого смысла, у него нет концепции “причины и следствия”, которая необходима при вождении по дороге.
Что это значит?
Текущее состояние искусственного интеллекта означает, что беспилотные автомобили — это наше будущее, поскольку мы продолжаем продвигаться в информатике. Компьютеры могут догнать наш уровень логических выводов, восприятия и принятия решений. Однако при нынешнем состоянии технологий полностью самоуправляемый автомобиль был бы опасен.
Во-первых, автомобиль может быть не в состоянии принять правильное решение, а использовать только серию утверждений «если-то», чтобы определить, чего хотят от автомобиля люди, запрограммировавшие компьютер. Поскольку морального абсолюта не существует, сложно определить, что программисты должны указывать автомобилям делать.
Это прекрасно проиллюстрировано на веб-сайте Moral Machine, созданном Scalable Cooperation, MIT Media Lab и Массачусетским технологическим институтом. Веб-сайт предоставляет пользователю серию вопросов о том, какие решения должен принимать автоматизированный автомобиль относительно человеческой жизни. Большое разнообразие ответов иллюстрирует, что программистам практически невозможно должным образом внедрить мораль в беспилотный автомобиль.
Что касается восприятия, технологии могут зайти слишком далеко. В настоящее время Google изучает, как заставить компьютеры чувствовать запахи, но даже правильное визуальное восприятие невозможно с современными технологиями. Хотя камеры могут быть установлены по всей внешней части автомобиля, неясно, как компьютеры будут определять серьезность аварии. Количество возможностей слишком велико, чтобы компьютеры могли правильно рассчитать, что делать.
“Безопасность дорожного движения должна быть нашим главным приоритетом, когда речь заходит об автоматизированных транспортных средствах”, — говорит Ян Дилс, основатель юридической компании Jan Dils Attorneys at Law. “Если это означает, что беспилотные автомобили нужно убрать с дорог еще на несколько лет, пусть будет так. это то, что должно произойти для защиты жизней ”.
Вероятно, потребуется еще десятилетие, чтобы беспилотные автомобили стали обычным явлением. Это только вопрос времени, когда наши дороги станут автоматизированными, и мы должны быть готовы к тому, что принесет будущее, основанное на технологиях.