Искусственный интеллект имеет свои риски, но новый алгоритм, разработанный в Питтсбурге, повышает точность данных агентства по защите детей
Если вы провели какое-то время в Twitter или Facebook после Рождества, вы, вероятно, читали о Google Home и жутком взаимодействии Alexa, которое стало вирусным, когда гордый новый владелец Google Home сказал: «Окей, Google, что ты думаешь об Alexa?» и Google Home ответил: «Мне нравится ее синий свет». Затем через всю комнату Алекса включилась и сказала: «Спасибо».
Не буду врать, когда я читал это, я полностью предвещал истинное пришествие Скайнета и Конца Всего Вещего. Технологии зло! - провозгласил я. Нас свергнут наши роботы-помощники!
И все же не все технологические достижения предвещают гибель человечества. Некоторые из них на самом деле спасают жизни, как, например, Allegheny Family Screening Tool, недавно опубликованный в New York Times. Это алгоритм предиктивной аналитики, разработанный Департаментом по делам детей, молодежи и семьи округа Аллегейни (CYE) для того, чтобы лучше проверять сообщения о жестоком обращении с детьми и их угрозах как для текущего, так и для будущего риска.
В 2015 году смерть двух детей, которых несколько раз отбирали как «низкий риск», побудила округ Аллегейни нанять двух социологов, Эмили Патнэм-Хорнштейн и Райну Вайтианатан, для исследования того, как прогнозирующая аналитика может улучшиться. рассмотрение округом заявлений о жестоком обращении. Они сосредоточились на процессе проверки звонков, особенно на том, как анализируются данные. Вопрос, который они в конечном итоге задали, заключался в том, почему этих детей отсеяли.
Некомпетентность со стороны досмотрщиков? Нет, говорит Вайтианатан, который провел несколько месяцев с Патнэм-Хорнштейном, изучая базы данных округа, чтобы построить свой алгоритм на основе всех 76 964 заявлений о жестоком обращении, сделанных в период с апреля 2010 года по апрель 2014 года.«То, что есть у специалистов по скринингу, - это много данных, - сказала она мне, - но довольно сложно ориентироваться и знать, какие факторы наиболее важны. В течение одного звонка в CYF у вас может быть двое детей, предполагаемый преступник, у вас может быть мама, у вас может быть еще один взрослый в семье - все эти люди будут иметь историю в системе, которую человек, просматривающий звонок, может исследовать.. Но человеческий мозг не настолько искусен в использовании и осмыслении всех этих данных».
Это может быть даже не тот случай, когда человеческий мозг менее способен использовать и понимать данные. Службы защиты детей, как известно, перегружены, и у социальных работников просто нет времени, чтобы просмотреть записи каждого взрослого, проживающего в доме. Более того, у них может даже не быть сведений о некоторых проживающих там взрослых - например, временного бойфренда можно отследить только по тюремным записям, отчетам психиатрической службы или информации из центров лечения наркомании и алкоголизма. Поиск этой информации занял бы часы, которых у специалистов по делу просто нет… и даже больше, чтобы проанализировать, какой риск новая информация может (или не может) представлять.
The Allegheny Family Screening Tool - не первый инструмент прогнозной аналитики, используемый агентствами по защите детей. Несколько частных компаний продали инструменты для скрининга отделам по борьбе с несовершеннолетними в различных штатах, но растет беспокойство по поводу секретности, связанной с разработкой и работой алгоритмов.
Что делает Allegheny Family Screening Tool таким примечательным, так это прозрачность, которой отмечена его разработка, а также тот факт, что он был разработан самой CYE, а не частной компанией. Что еще более важно, новейшее переоснащение алгоритма повысило точность предсказания неблагоприятных исходов до более чем 90 % - это далеко от среднего показателя по отделу в 62 %, с которого начинали ученые, разработавшие алгоритм..
Это много детей, которых спасают от жестокого обращения, травм и смерти. Хотя технологии могут быть пугающими в абстракции, конкретная реальность спасения детских жизней благодаря технологическим достижениям превосходит малую вероятность того, что Alexa и Google Home однажды могут обрушить на нас весь Скайнет. Сегодня алгоритмы спасают жизни наших самых уязвимых детей… и это нововведение, за которое мы все должны быть благодарны.