COMPAS

Материал из Циклопедии
Перейти к навигации Перейти к поиску

Correctional Offender Management Profiling for Alternative Sanctions (COMPAS, англ. Профилирование правонарушителей для применения альтернативных санкций) — программное обеспечение для управления судебными делами и поддержки принятия решений, разработанное и принадлежащее компании Northpointe (ныне Equivant), используемое судами США для оценки вероятности рецидива со стороны обвиняемого[1][2].

COMPAS используется в таких штатах США, как Нью-Йорк, Висконсин, Калифорния и других юрисдикциях[3].

Описание[править]

Программное обеспечение COMPAS использует алгоритм для оценки потенциального риска рецидива преступлений по специально разработанным шкалам. Согласно руководству пользователя COMPAS, шкалы были разработаны с использованием «высокорелевантных» поведенческих и психологических конструктов[4].

Сторонники использования средств искусственного интеллекта в суде утверждают, что алгоритмы сглаживают искажения и ошибки в рассуждениях судей, например, «эффект голодного судьи» (явление, при котором судьи более склонны принимать снисходительные решения после еды)[5].

Критика[править]

Использование проприетарного программного обеспечения, такого как COMPAS, критикуется за то, что, поскольку используемые им алгоритмы являются коммерческой тайной, они не могут быть изучены общественностью и заинтересованными сторонами, что может являться нарушением надлежащей правовой процедуры.

Использование алгоритмов, основанных на машинном обучении, критикуется также за то, что они зависят от данных: если данные предвзяты, программное обеспечение, скорее всего, выдаст предвзятые результаты[6].

В 2016 году Джулия Ангвин[en] была соавтором исследования алгоритма, проведённого ProPublica[7]. Было обнаружено, что «чернокожие почти в два раза чаще, чем белые, получают статус „более высокий риск“, но фактически не совершают повторных преступлений», в то же время COMPAS «совершает противоположную ошибку по отношению к белым: они гораздо чаще, чем чернокожие, получают статус „более низкий риск“, но продолжают совершать преступления»[7][8][9]. Исследователи также обнаружили, что только 20 процентов людей, которым алгоритм предсказывал совершение насильственных преступлений, действительно их совершали[7].

Примечания[править]

  1. Sam Corbett-Davies, Emma Pierson, Avi Feller and Sharad Goel. A computer program used for bail and sentencing decisions was labeled biased against blacks. It's actually not that clear. (2016 год).
  2. Aaron M. Bornstein (December 21, 2017). «Are Algorithms Building the New Infrastructure of Racism?» (55).
  3. Kirkpatrick, Keith (2017-01-23). «It's not the algorithm, it's the data» (en). Communications of the ACM 60 (2): 21–23. DOI:10.1145/3022181.
  4. Northpointe A Practitioner's Guide to COMPAS Core (15 March 2015).
  5. (May 2022) «Beware the Lure of Narratives: "Hungry Judges" Should Not Motivate the Use of "Artificial Intelligence" in Law» (en). German Law Journal 23 (4): 452–464. DOI:10.1017/glj.2022.32. ISSN 2071-8322.
  6. O'Neil Cathy Weapons of Math Destruction. — Crown. — P. 87. — ISBN 978-0-553-41881-1.
  7. 7,0 7,1 7,2 (2016-05-23) «Machine Bias». ProPublica.
  8. Yong, Ed. Популярный алгоритм не лучше предсказывает преступления, чем случайные люди (17 января 2018 года).
  9. Israni, Ellora. Когда алгоритм помогает отправить вас в тюрьму (Мнение), The New York Times (26 октября 2017 года).
Руниверсалис

Одним из источников, использованных при создании данной статьи, является статья из википроекта «Руниверсалис» («Руни», руни.рф) под названием «COMPAS», расположенная по адресу:

Материал указанной статьи полностью или частично использован в Циклопедии по лицензии CC BY-SA.

Всем участникам Руниверсалиса предлагается прочитать «Обращение к участникам Руниверсалиса» основателя Циклопедии и «Почему Циклопедия?».