Исследователи приводят доводы в пользу «глубокой доказательной регрессии».
Ключевые выводы
- Исследователи Массачусетского технологического института утверждают, что нейронные сети с глубоким обучением нуждаются в улучшенном анализе неопределенности, чтобы уменьшить количество ошибок.
- «Глубокая доказательная регрессия» снижает неопределенность уже после одного прохода по сети, значительно сокращая время и память.
- Это может помочь смягчить проблемы при медицинской диагностике, автономном вождении и многом другом.
Мы все видели фильмы: безумный гений создает революционный искусственный интеллект только для того, чтобы он повернулся против них - и человечества. В середине фильма роботы берут верх. В конце концов, люди победили, хотя и с небольшим перевесом. Как и Годзилла, ИИ никуда не делся. Чудовище, наша самая темная тень, всегда прячется, готовое снова ринуться в бой.
Фантазии в сторону, искусственный интеллект - это реальная проблема. Как пишут Ричард Кларк и Р. П. Эдди в своей книге 2017 года «Предупреждения», 47 процентов всех рабочих мест в США могут быть выведены из эксплуатации через 20 лет - и это было предсказано оксфордскими исследователями в 2013 году. ИИ «уволит 140 миллионов штатных работников умственного труда по всему миру».
Крупномасштабная безработица опасна, особенно с точки зрения действий правительства. Нынешняя администрация в основном игнорировала ИИ, в то время как новая администрация имеет исследовательскую платформу. Как это влияет на потерю работы, еще предстоит выяснить. Кларк и Эдди указывают на различные реакции на Великую депрессию:
«В 1932 году США ответили Новым курсом. Западная Европа ответила фашизмом и неминуемым подъемом нацизма, Россия углубилась в сталинизм и пятилетки».
Есть еще вопрос эффективности. Как мы действительно узнаем, что ИИ работает по плану? Статистика опирается на два основных доверительных интервала: 95 процентов и 99 процентов. Хотя последний, кажется, внушает доверие благодаря большим наборам данных, хотите ли вы, например, чтобы медицинское вмешательство ИИ имело 1-процентный шанс неудачи?
Александр Амини, аспирант Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) и первый автор новой статьи о нейронных сетях, говорит, что мы не должны идти на такой риск.
«Одна вещь, которая ускользала от исследователей, - это способность этих моделей знать и сообщать нам, когда они могут быть неправильными. Мы действительно заботимся об этом 1 проценте времени и о том, как мы можем надежно и эффективно обнаруживать такие ситуации».
Нейронные сети с глубоким обучением используются в автономном вождении и медицинской диагностике, а также во многих других областях. Риск в 1 процент в ИИ, который фильтрует каналы социальных сетей, может показаться не такой уж большой авантюрой, но когда дело доходит до разработки лекарств или анализа медицинских изображений, такой риск может привести к трагедии.
На дороге 1 процент может быть разницей между остановкой на перекрестке или рывком, когда другая машина проезжает знак остановки. Амини и его коллеги хотели создать модель, которая могла бы лучше обнаруживать закономерности в гигантских наборах данных. Свое решение они назвали «глубокая доказательная регрессия».
Сортировка миллиардов параметров - непростая задача. В модели Амини используется неопределенный анализ, позволяющий узнать, сколько ошибок существует в модели, и предоставить недостающие данные. Этот подход к глубокому обучению не нов, хотя часто требует много времени и памяти. Глубокая доказательная регрессия оценивает неопределенность только после одного запуска нейронной сети. По словам команды, они могут оценить неопределенность как во входных данных, так и в окончательном решении, после чего либо обратиться к нейронной сети, либо распознать шум во входных данных.
В реальном мире это разница между доверием к первоначальному медицинскому диагнозу и поиском второго мнения. Вооружая ИИ встроенной системой обнаружения неопределенности, достигается новый уровень честности с данными - в этой модели с пикселями. Во время тестового прогона нейронная сеть получила новые изображения; он смог обнаружить изменения, незаметные для человеческого глаза. Рамини считает, что эту технологию также можно использовать для выявления дипфейков, что является серьезной проблемой, с которой мы должны начать бороться.
Любая область, в которой используется машинное обучение, должна учитывать неопределенность, будь то медицина, автомобили или что-то еще. Как говорит Амини, «Любой пользователь метода, будь то врач или человек на пассажирском сиденье транспортного средства, должен знать о любом риске или неопределенности, связанных с этим решением».
Нам, возможно, не стоит беспокоиться о том, что инопланетные роботы повернутся против нас (пока), но нас должна беспокоить та новая функция, которую мы только что загрузили в наш электромобиль. С появлением ИИ в нашем мире и рабочей силе возникнет много других проблем. Чем безопаснее мы сможем совершить переход, тем лучше.