Нажмите "Enter" для пропуска содержимого

Алгоритм, который вычисляет будущих преступников по фото, вызвал скандал в США

Создатели программы уверяют, что могут предсказать наклонности человека по одному снимку, а критики называют её расистской.

Программу распознавания лиц, которая предсказывает криминальное будущее человека, разработали два профессора и аспирант Харрисбургского университета науки и технологий (США), сообщает ЛАЙФ со ссылкой на Wired. Модель глубокой нейронной сети для прогнозирования преступности с использованием обработки изображений с «80-процентной точностью и без расовой предвзятости» вычисляет криминальные наклонности человека по его фото. Об этом говорится в пресс-релизе, который спустя какое-то время был удалён с сайта вуза из-за разразившегося скандала.

Алгоритм, который вычисляет будущих преступников по фото, вызвал скандал в США

Научную статью с детальным описанием технологии должно было опубликовать авторитетное издательство Springer Nature. Однако после того, как более тысячи исследователей машинного обучения, социологов, историков и специалистов по этике выложили открытое письмо с осуждением представленной идеи, в Springer Nature сообщили, что издательство не будет в этом участвовать.

По мнению критиков ноу-хау Харрисбургского университета, исследование учёных «основано на ненадлежащих научных предпосылках и методах, которые были опровергнуты в последние годы». В открытом письме утверждается, что преступность невозможно предсказать без расовой предвзятости, так как «сама категория преступности основана на расистских предрассудках». Любой прогностический алгоритм, моделирующий преступность, будет воспроизводить только искажения, уже отражённые в системе правосудия, считают эксперты.

Новая разработка — не первая попытка проанализировать личность человека по его лицу с помощью современных технологий. В 2016 году исследователи из Шанхайского университета Цзяо Тонг также заявляли, что их алгоритм может предсказывать преступность посредством физиогномики, однако инженеры из Станфорда и компании Google опровергли выводы китайских учёных. В 2017 году пара исследователей уже из самого Станфорда утверждала, что их искусственный интеллект может определить сексуальную ориентацию человека. С критикой программы выступили ЛГБТ-организации. А в прошлом году исследователи из Кильского университета (Англия) заявили, что их алгоритм может предсказывать аутизм.

Автор: Хафизов Семен
Источник

Поделиться

Станьте первым комментатором

    Добавить комментарий