Инструмент, который может медленно строить лучший мир.
Ключевые выводы
- Алгоритмы помогают управлять современным миром.
- Алгоритмы отражают человеческие предубеждения, но некоторые из них, как отмечает Касс Санстейн из Гарварда, могут помочь исправить наши предубеждения.
- Если вы создадите правильный алгоритм, вы сможете внести свой вклад в улучшение мира.
Алгоритмы являются частью двигателя, который движет современным миром. Когда вы ищете что-то в Google, вы полагаетесь на поисковую систему, определяемую определенным алгоритмом. Когда вы видите то, что видите в своей ленте новостей на Facebook, вы смотрите не на то, что приходит к вам естественным образом; вы смотрите на что-то определенное по определенному алгоритму.
Недавно была отвергнута идея эффективности, с которой алгоритмы делают наш мир проще (что является частью обсуждения алгоритмов - что они делают наш мир проще). Некоторые возражения носят философский характер. Некоторое противодействие исходит непосредственно из практической точки зрения.
Ответ с практической точки зрения принимает форму статьи, появившейся в октябре этого года, в которой отмечается, что Amazon избавился от используемого ею инструмента для набора персонала с искусственным интеллектом, который не любил женщин. В другой статье ProPublica отмечалось, что алгоритм, используемый для определения того, подлежит ли обвиняемый по уголовным делам в США повторному преступлению, был предвзятым на расовой почве.
Одна из причин, почему у некоторых алгоритмов возникают проблемы, заключается в том, что существует множество математических способов определения понятия «справедливость», и не каждая система построена с достаточной гибкостью, чтобы учитывать все различные способы в какую «справедливость» можно определить. Рассмотрим способ, с помощью которого одна система оценивала потенциальное жестокое обращение с детьми в районе Питтсбурга, отмеченное в статье в Nature: «И по причинам, которые до сих пор не ясны, белые дети, которых алгоритм оценивал как наиболее подверженные жестокому обращению, с меньшей вероятностью подвергались жестокому обращению. быть удалены из своих домов, чем чернокожие дети, получившие самые высокие оценки риска».
Cass Sunstein - Nudge: Улучшение решений о здоровье, богатстве и счастье
Но это не значит, что среди всего этого нет положительных моментов - они есть, и профессор Гарвардской школы Кеннеди Кэсс Санстейн недавно опубликовала документ, подтверждающий этот факт, утверждая, что « алгоритмы могут преодолеть пагубное влияние когнитивных искажений».
При этом стоит отметить странный момент в статье, где Санстейн пишет, что «… решения человеческих судей в отношении решений об освобождении под залог не демонстрируют ни разного обращения, ни разного воздействия. Насколько мне известно, доказательств ни того, ни другого нет». Есть очевидное доказательство, как отмечается в статье, опубликованной в Ежеквартальном журнале экономики. В статье авторы отмечают, что «оценки из Майами и Филадельфии показывают, что судьи по освобождению под залог имеют расовую предвзятость по отношению к чернокожим подсудимым, причем расовая предвзятость значительно выше как среди неопытных судей, так и среди судей, работающих неполный рабочий день».
В статье из Quarterly Journal of Economics утверждение о том, что алгоритм может просто сделать и без того не учитывающий расы процесс принятия решений («нет доказательств ни того ни другого») более эффективным, основанный на простом факте потенциал для криминала. Это также делает несколько проблематичным представление о том, что алгоритм может более или менее воспроизводить то, что производит судья, рассматривающий возможность освобождения под залог, но немного более эффективно - с меньшим количеством преступлений и т.п..
Но это не обязательно исключает некоторые из того, что Санстейн указывает на конкретный алгоритм, указанный в статье, опубликованной под эгидой Национального бюро экономических исследований:
1. «Использование алгоритма могло бы сохранить тот же уровень задержаний, который сейчас производится судьями-людьми, и снизить уровень преступности на 24,7 процента. В качестве альтернативы, использование алгоритма может сохранить текущий уровень снижения преступности и снизить количество заключенных в тюрьму на целых 41,9%… тысячи людей могут быть освобождены до суда, без увеличения уровня преступности».
2. «… судьи освобождают 48,5% подсудимых, отнесенных алгоритмом к наиболее рискованным 1%. Эти ответчики не явились повторно в суд в 56,3% случаев. Они повторно арестованы в размере 62,7 процента. Судьи проявляют снисходительность к населению, которое может совершить преступление», рассматривая «подсудимых с высоким уровнем риска, как если бы они подвергались малому риску, когда их текущее обвинение относительно невелико», в то же время обращаясь с «людьми с низким уровнем риска, как если бы они подвергались высокому риску, когда они их нынешнее обвинение особенно серьезно.
3. «Если алгоритму будет дано указание обеспечить тот же уровень преступности, которого в настоящее время достигают судьи, он отправит в тюрьму 40 человек.на 8 процентов меньше афроамериканцев и на 44,6 процента меньше выходцев из Латинской Америки. Он делает это потому, что задерживает гораздо меньше людей, поскольку он сосредоточен на самых опасных обвиняемых».
Это, казалось бы, четкие результаты, подтверждающие тезис о том, что существует предвзятость, которую можно исправить для достижения лучшего результата. Даже с усложняющими результатами, полученными среди неопытных и работающих неполный рабочий день судей в Майами и Филадельфии, мы можем видеть, что некоторые судьи интерпретируют «шум» как сигнал. Алгоритм может помочь обеспечить необходимый аспект ясности и, возможно, справедливости.