Полицейским в Англии будет помогать искусственный интеллект

  11 МАЙ 2017    Прочитано: 1503
Полицейским в Англии будет помогать искусственный интеллект

Полиция города Дарема на севере Англии запускает компьютерную программу, которая при помощи алгоритма искусственного интеллекта должна помочь полицейским определить, кого следует содержать под стражей, а кого можно отпустить, пишет BBC.

Алгоритм классифицирует задержанных по степени риска - с какой вероятностью они могут вновь совершить преступление.

Программа - Harm Assessment Risk Tool (Hart) - "изучала" данные полиции Дарема об арестах за период в пять лет, между 2008 и 2012 годами.

Затем система была протестирована даремской полицией в 2013 году, после чего в течение двух лет изучались результаты этого тестирования - полицейские отслеживали, вернулись ли освобожденные к преступной жизни или нет.

Как выяснилось, алгоритм мог предсказать, что задержанный не представляет опасности в 98% случаев. А находящихся в группе "высокого риска" компьютер правильно выявлял в 88% случаев.

Это отражает настройки алгоритма искусственного интеллекта - он запрограммирован "осторожничать" и классифицировать задержанных людей чаще в группы среднего или высокого риска - чтобы не выпускать на свободу тех, кто может снова совершить преступление.

В ходе испытаний программы полицейские следили за выводами Hart, но вердикт алгоритма не влиял на принятие решения об аресте, говорит Шина Эрвин из даремской полиции.

"Я думаю, что в течение ближайших двух или трех месяцев мы, скорее всего, предоставим эту программу в качестве подспорья полицейским, принимающим решения", - сказала она в интервью Би-би-си.


Шина Эрвин говорит, что подозреваемые, ранее не совершавшие преступлений, с меньшей вероятностью будут записаны алгоритмом искусственного интеллекта в категорию высокого риска. Однако если они арестованы по подозрению в серьезном преступлении, как, например, убийство, то это отразится на оценке программы.

В разработке этой программы принимал участие профессор Лоуренс Шерман из Кембриджского университета.

По его словам, программа может быть хорошим помощником во многих случаях: когда полиции следует решить, держать ли задержанного еще несколько часов; следует ли отпустить его под залог до того, как ему будут предъявлены официальные обвинения, и стоит ли держать его под арестом после предъявления обвинений.

В ходе нового эксперимента полицейские будут использовать систему при рассмотрении лишь ряда дел, выбранных случайным путем.

В 2016 году американский новостной сайт ProPublica опубликовал результаты исследования алгоритма, который использовала полиция для того, чтобы определить шансы рецидивизма среди арестованных.

Исследование показало, что в алгоритм заложена расовая необъективность: программа давала гораздо более негативные прогнозы в отношении чернокожих арестантов по сравнению с белыми задержанными. Компания, создавшая этот алгоритм, отрицает выводы ProPublica.

"В каком-то смысле компьютерные модели наглядно демонстрируют скрытые и подсознательные допущения, к которым прибегают люди", - говорит профессор Пенсильванского университета Кэри Кольянезе, который изучает процессы принятия решений при помощи алгоритмов.

"Довольно сложно определить, насколько именно эти компьютерные модели склонны к дискриминации", - говорит он.

Даремская система учитывает не только информацию о прошлых преступлениях подозреваемого, но также его почтовый индекс и пол.

В ответ на запрос парламентской комиссии, рассматривавшей возможные проблемы процесса принятия решений на основе выводов алгоритмов, создатели даремской системы заявляют, что они уверены в том, что им удалось ограничить возможность дискриминационного подхода к арестованным.

"Информация о почтовом индексе никак напрямую не отражается на результате - окончательное решение зависит от того, как эта информация увязывается с тысячами других возможных факторов", - говорят они.

Они также подчеркивают, что любой вывод алгоритма носит лишь рекомендательный характер и ни в коем случае не отбирает у полиции прерогативу принимать окончательное решение о судьбе задержанного.
Профессор Шерман также говорит, что этот алгоритм должен сохранять все данные о том, как программа пришла к определенному выводу.

Читайте актуальные новости и аналитические статьи в Telegram-канале «Vzglyad.az» https://t.me/Vzqlyad

Тэги: #Великобритания  





НОВОСТНАЯ ЛЕНТА