Исследователи рассматривают краудсорсинг как способ научить ИИ этике.
По мере того, как мы уступаем все больше и больше контроля искусственному интеллекту, неизбежно, что этим машинам придется делать выбор, основанный, надеюсь, на человеческой морали. Но откуда возьмется этика ИИ? Собственная логика ИИ? Правила написаны программистами? Руководители компании? Могут ли они быть краудсорсинговыми, по сути, голосованием всех?
В подразделении Alphabet DeepMind теперь есть подразделение, занимающееся этикой ИИ, а в июне 2017 года Германия стала первой страной, которая официально приступила к решению этого вопроса. Вождение. Для тех, кто беспокоится о том, что машины захватят власть, цитируя Стивена Хокинга: «Развитие искусственного интеллекта может означать конец человеческой расы». - Правильная этика ИИ имеет решающее значение для нашего выживания.
Проблема уже здесь в виде автономных транспортных средств. Это только первый случай, и уж точно не последний. И это сложно с самого начала.
Исследователи из Массачусетского технологического института недавно разработали веб-сайт Moral Machine, основанный на задаче о тележке, чтобы проверить, как может работать краудсорсинг. Он основан на этическом выборе, с которым приходится сталкиваться автономным транспортным средствам, и представлен как игра, в которой игроки могут награждать лайками решения других людей, а также смотреть, как обстоят дела с вашим собственным мнением.
Исследователи из Карнеги-Меллона взяли данные из Moral Machine и превратили их в алгоритм искусственного интеллекта для беспилотных автомобилей, как подробно описано в отчете, опубликованном в сентябре 2017 года. Они начали с построения модели решений каждого игрока Моральной Машины, которая позволила бы исследователям предсказать его или ее выбор при столкновении со «всеми возможными альтернативами». Следующим шагом было «объединить отдельные модели в единую модель, которая приблизительно отражает коллективные предпочтения всех избирателей перед всеми возможными альтернативами».
Критики указывают на несколько причин, по которым мораль краудсорсинга может пойти не так. С одной стороны, это касается людей. Тот факт, что этический выбор побеждает в опросах, не означает, что он действительно этичен, а только популярен. Как сказал The Outline профессор права Корнелльского университета Джеймс Гриммельманн, «это делает ИИ этичным или неэтичным точно так же, как этично или неэтично большое количество людей». Нас всех поймали на неправильной стороне голосования, но мы все еще уверены, что правы именно мы.
Есть еще вопрос, кто является толпой. Существует большая вероятность смещения выборки в зависимости от того, чье мнение отражает выборка.
И, наконец, существует потенциальная предвзятость людей, которые преобразуют необработанные краудсорсинговые данные в алгоритмы принятия решений, с явной возможностью того, что разные аналитики и программисты получат разные результаты на основе одних и тех же данных.
Один из авторов исследования, ученый-компьютерщик Карнеги-Меллона Ариэль Прокаччиа, рассказал The Outline: «Мы не говорим, что система готова к развертыванию. Но это доказательство концепции, показывающее, что демократия может помочь решить серьезную проблему этического принятия решений в области ИИ». Может быть.