Мы никак не сможем остановить мошеннический ИИ

Мы никак не сможем остановить мошеннический ИИ
Мы никак не сможем остановить мошеннический ИИ

Ученые Института Макса Планка врезаются в компьютерную стену, и кажется, что нет другого выхода.

Image
Image

Ключевые выводы

  • Искусственный интеллект, который умнее нас, потенциально может решить проблемы, которые нам не под силу.
  • Самообучающийся ИИ может поглощать любую необходимую им информацию из Интернета, ящика Пандоры, если он когда-либо существовал.
  • Сама природа вычислений не позволяет нам ограничить действия сверхразумного ИИ, если он выйдет из-под контроля.

Было немало голосов, среди них Стивен Хокинг, которые предупреждали, что сверхразумный искусственный интеллект однажды может напасть на нас и что мы не должны быть в такой жаркой, беспрекословно спешить развивать настоящий ИИ. Другие говорят, нет, не волнуйтесь. Теперь в новом официальном документе ученых из Центра людей и машин Института развития человека им. Макса Планка представлена серия теоретических тестов, подтверждающих угрозу: из-за базовых концепций, лежащих в основе вычислений, мы совершенно не сможем контролировать -интеллектуальный ИИ.

«Мы утверждаем, что полное сдерживание в принципе невозможно из-за фундаментальных ограничений, присущих самим вычислениям», - пишут авторы статьи.

Белая книга опубликована в Journal of Artificial Intelligence Research.

Image
Image

«Сверхразумная машина, которая управляет миром, звучит как научная фантастика», - говорит соавтор статьи Мануэль Себриан в пресс-релизе. «Но уже есть машины, которые выполняют определенные важные задачи самостоятельно, а программисты полностью не понимают, как они этому научились. Поэтому возникает вопрос, может ли это в какой-то момент стать неконтролируемым и опасным для человечества.”

Привлекательность ИИ ясна. Его способность «видеть» закономерности в данных делает его многообещающим агентом для решения проблем, слишком сложных для того, чтобы мы могли их обдумать. Может ли это вылечить рак? Решить климатический кризис? Возможности практически безграничны.

Подключенный к Интернету ИИ может собирать любую информацию, необходимую для выполнения своей задачи, и в этом заключается большая часть опасности. Имея доступ ко всем человеческим данным и отвечая за свое собственное образование, кто знает, какие уроки он извлечет, независимо от каких-либо этических ограничений, встроенных в его программирование? Кто знает, какие цели она поставила бы перед собой и что могла бы сделать для их достижения?

Даже при условии благожелательности существует опасность. Предположим, что перед ИИ стоит выбор «или-или», что-то вроде дилеммы тележки, может быть, даже в более широком масштабе: может ли ИИ решить уничтожить миллионы людей, если он решит, что оставшиеся миллиарды будут иметь больше шансов на выживание?

Image
Image

Самый очевидный способ удержать сверхинтеллектуальный ИИ от опережения нас - ограничить его доступ к информации, запретив ему подключаться к Интернету. Однако проблема с ограничением доступа к информации заключается в том, что это затруднит решение любой проблемы, которую мы поручаем ИИ. Мы бы ослабили его обещание решения проблем, возможно, до точки бесполезности.

Второй подход, который может быть использован, заключается в том, чтобы ограничить возможности сверхразумного ИИ, запрограммировав в нем определенные границы. Это может быть похоже на «Законы робототехники» писателя Айзека Азимова, первый из которых гласит: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

К сожалению, говорится в исследовании, серия логических тестов показывает, что создать такие ограничения невозможно. Как оказалось, любой такой алгоритм сдерживания был бы обречен на провал.

Image
Image

«Если разбить проблему на основные правила теоретической информатики, окажется, что алгоритм, который приказывает ИИ не уничтожать мир, может непреднамеренно остановить свои собственные операции. Если бы это произошло, вы бы не знали, продолжает ли алгоритм сдерживания анализировать угрозу или он прекратил сдерживать вредоносный ИИ. По сути, это делает алгоритм сдерживания непригодным для использования».

Команда исследовала алгоритмы сдерживания стека, каждый из которых отслеживает поведение предыдущего, но в конечном итоге возникает одна и та же проблема: последняя проверка останавливается, что делает ее ненадежной.

Исследователи Planck также пришли к выводу, что аналогичная логика не позволяет нам узнать, когда интеллект самообучающегося компьютера превзойдет наш собственный. По сути, мы недостаточно умны, чтобы разработать тесты на интеллект, превосходящий наш.

«Машины очень часто застают меня врасплох. Во многом это связано с тем, что я не делаю достаточных расчетов, чтобы решить, чего от них ожидать». - Алан Тьюринг

Это означает, что вполне возможно, что ИИ, способный к самообучению, вполне может незаметно подняться до уровня сверхразума, даже если мы об этом не подозреваем - сама по себе страшная причина замедлять нашу суматошную гонку. искусственному интеллекту.

В конце концов, мы вынуждены заключать или не заключать опасную сделку: рискуем ли мы своей безопасностью в обмен на возможность того, что ИИ решит проблемы, с которыми мы не справимся?