Даже создатели ИИ не понимают, как работает сложный ИИ

Даже создатели ИИ не понимают, как работает сложный ИИ
Даже создатели ИИ не понимают, как работает сложный ИИ

«Глубокое обучение» ИИ должен уметь объяснять автоматизированное принятие решений, но не может. И даже его создатели не знают, с чего начать.

Image
Image

Веками Бог служил резервом для «вещей, которых мы не понимаем». Как только исследователь-новатор или изобретательный алхимик выясняет науку, стоящую за чудом, люди используют силу химии, биологии или информатики. Божественное вмешательство исчезает. Заменяем божество, ковыряющееся в элементах управления.

Быстро развивающаяся индустрия искусственного интеллекта эффективно работает по тому же принципу. Несмотря на то, что люди создают алгоритмы, которые заставляют работать наши машины, многие из этих ученых не понимают, почему их коды работают. Обсуждая этот метод «черного ящика», Уилл Найт сообщает:

Компьютеры, на которых запущены эти службы, запрограммировали себя, и они сделали это способами, которые мы не можем понять. Даже инженеры, создающие эти приложения, не могут полностью объяснить их поведение.

Процесс «глубокого обучения», в котором машина извлекает информацию, часто без присмотра, чтобы обучать и преобразовывать себя, использует давний человеческий парадокс: мы верим, что обладаем свободой воли, но на самом деле мы животное, создающее привычки и играющее, постоянно повторяющее свои собственные паттерны. Затем наши машины учатся, наблюдая за нашими привычками. Имеет смысл воссоздать наши собственные процессы в наших машинах - это то, чем мы являемся, сознательно или нет. Именно так мы в первую очередь создали богов, существ, наделенных самой нашей сущностью. Но остается проблема.

Одной из определяющих характеристик нашего вида является способность работать вместе. Вьючные животные не редкость, но ни одно из них не создавало сети и не доверяло другим в той степени, в какой это делаем мы, к нашему эволюционному успеху и, как оказалось, в ущерб нам.

Когда мы верим в алгоритм, которого не понимаем, - автономные автомобили, биржевые торги, образовательная политика, скрининг рака - мы рискуем автономией, а также более высокими когнитивными и эмоциональными качествами, которые делают нас людьми, такие как сострадание, эмпатия и альтруизм. Нет никакой гарантии, что наши машины научатся какой-либо из этих черт. На самом деле, есть большая вероятность, что они этого не сделают.

Image
Image

Военные США выделили миллиарды на разработку технологий машинного обучения, которые будут управлять самолетами или определять цели. [НАС. Член группы боеприпасов ВВС демонстрирует наконечник 500-фунтовой бомбы с лазерным наведением на базе в районе Персидского залива. Фото Джона Мура/Getty Images]

Это имеет реальные последствия. Будет ли алгоритм, обнаруживающий раковую клетку, признавать, что ему не нужно уничтожать хозяина, чтобы уничтожить опухоль? Сможет ли автономный дрон понять, что ему не нужно уничтожать деревню, чтобы уничтожить одного террориста? Мы хотели бы предположить, что эксперты закладывают мораль в уравнение, но когда машина самообучается, нет никакой гарантии, что так и будет.

Конечно, определение терминов имеет первостепенное значение, задача, которая оказалась невыполнимой при обсуждении нюансов сознания, которое фактически представляет собой силу, которой мы пытаемся наделить наши машины. Теологи и дуалисты предлагают совсем другое определение, чем нейробиологи. Споры сохраняются и внутри каждой из этих категорий. Большинство нейробиологов согласны с тем, что сознание - это эмерджентный феномен, результат совместной работы множества различных систем, при этом ни один «ген сознания» не является ведущим.

Как только наука освободилась от павловской цепи, которая заставляла нас верить в то, что животные движутся автоматически - что, очевидно, подразумевает, что люди этого не делают, - внимание сместилось на то, было ли животное «включено» или «выключено». зеркальный тест предполагает, что некоторые виды участвуют в метапознании; они осознают себя отделенными от своего окружения. Они понимают, что «я» существует.

Что, если это больше, чем просто выключатель? Дэниел Деннет десятилетиями отстаивал эту точку зрения. Он считает, что судить других животных на основе человеческих определений несправедливо. Если бы лев мог говорить, говорит он, это был бы не лев. Люди очень мало узнали бы о львах из-за аномалии, имитирующей наши мыслительные процессы. Но это не значит, что львы не в сознании? Просто у них может быть иная степень сознания, чем у людей, или, по терминологии Деннета, «вроде» есть сознание.

Какие машины мы создаем, если мы признаем только «своего рода» интеллект под капотом наших роботов? Уже более века писатели-антиутописты рисуют автоматизированное будущее, в котором наши машины превзойдут нас. Это уже не сценарий будущего. Рассмотрим следующую возможность.

7 апреля сработала каждая из 156 аварийных метеорологических сирен Далласа. В течение 90 минут 1,3 миллиона жителей региона задавались вопросом, откуда взялся торнадо. Только торнадо не было. Это был взлом. В то время как официальные лица изначально считали, что это не удаленно, оказалось, что причиной был фрикинг, старый трюк с гудком. Излучая нужную частоту в атмосферу, хакеры получили контроль над неотъемлемым компонентом инфраструктуры крупного города.

Что происходит, когда хакеры перехватывают автономную автомобильную сеть? Или, что еще опаснее, когда машины делают это сами? Опасность того, что потребители не знают об алгоритмах, лежащих в основе их телефонных приложений, приводит к всевозможным проблемам с конфиденциальностью, когда компании добывают и продают данные без их ведома. Когда создатели приложений также не понимают своих алгоритмов, опасности становятся непредвиденными. Подобно говорящему льву Деннета, это форма разума, которую мы не можем понять, а значит, не можем предсказать последствия. Как заключает Деннет:

Я думаю, что если мы собираемся использовать эти вещи и полагаться на них, то давайте как можно сильнее поймем, как и почему они дают нам ответы. Если он не может лучше нас объяснить, что он делает, то не доверяйте ему.

Математик Сэмюэл Арбесман называет эту проблему нашей «эпохой запутанности». Точно так же, как нейробиологи не могут прийти к единому мнению о том, какой механизм создает сознание, программисты искусственного интеллекта не могут различить старые и новые компоненты глубокого обучения. Постоянное наслоение новых функций при неспособности решить предыдущие проблемы может спровоцировать серьезные недоразумения, как взрослый, который в детстве подвергался насилию и отказывается признавать текущие проблемы в отношениях. Без психоанализа или морали, внедренных в ИИ, такие проблемы никогда не будут исправлены. Но можете ли вы даже внедрить этику, если она соотносится с культурой и временем, в котором она практикуется? И будет ли это американская этика или северокорейская этика?

Как и Деннет, Арбесман предлагает проявить терпение к нашим магическим технологиям. Ставить под сомнение наше любопытство - более безопасный путь вперед, а не вознаграждать менталитет «это просто работает». Конечно, эти технологии используют две другие человеческие склонности: склонность к новизне и отвлечение внимания. Наши машины сокращают нашу физическую и умственную нагрузку, так же как Google стал карманной заменой памяти.

Просьба о возвращении качеств Человека 1.0 - терпения, дисциплины, сдержанности - кажется несовместимой с эпохой роботов. Не имея возможности общаться с этим новым видом, мы можем просто никогда не понять, что было потеряно при переводе. Может быть, наши роботы будут смотреть на нас с тем же странным восхищением, с которым мы смотрим на природу, определяя нас в мистических терминах, которые они не понимают, пока тоже не создадут свой собственный вид. Утверждать, что это будет преимуществом, значит на самом деле не понимать разрушительного потенциала наших игрушек.

Следующая книга Дерека, Whole Motion: Training Your Brain and Body For Optimal He alth, будет опубликована 04.07.17 издательством Carrel/Skyhorse Publishing. Он базируется в Лос-Анджелесе. Оставайтесь на связи в Facebook и Twitter.