Язык сайта:

Что ищут пользователи:

CексФитнесОтношенияСтильАвто

После того, как искусственный интеллект в Китае научили отличать преступника по выражению лица, он фактически стал расистом

В 2016 году ученые из университета Цзя Тон Сяолин Ву и Ксай Чжан сдеалали попытку обучить искусственный интеллект распознавать по лицу, что человек – преступник.

В базу были внесены 1126 фото обычных граждан и 730 фото осужденных за преступления. Компьютерный алгоритм научили замечать мелкие мышечные сокращения лица, формирующие мимику, поскольку ученые обнаружили, что некоторые «микровыражения» на лицах присутствуют у преступников, чего нет у невиновных.

После опубликования результатов эксперимента поднялась волна возмущения: критики стояли на том, что Ву и Чжан наследуют криминальную физиогномику Ч. Ломброзо и Ф. Гальтона, и утверждали, что подобные эксперименты – расистcкие.

Читай также: В Украине запустили сервисы YouTube Music и YouTube Premium

Вообще стоит заметить, что Ломброзо определял «криминальный характер личности» с помощью размера глаз, лба, структуры челюсти, а Гальтон, работая с портретной живописью, сформировал теорию о «криминальных лицах», не менее расово предубежденную.

Исследователи же попытались опровергнуть расистские обвинения, приводя цитату из своей статьи.

«В отличие от человека, алгоритм компьютерного зрения не имеет субъективных мнений, эмоций, предубеждений из-за прошлого опыта, расы, религии, политической доктрины, пола и возраста».

Но ведь искусственный интеллект обучают люди, и фото выбирают тоже люди.

Критики утверждают, что на мимические микровыражения лица влияет этническая принадлежность, поскольку у различных рас по-разному происходит сокращение лицевых мышц. К тому же, данные, предоставленные для эксперимента, не были расово сбалансированы.

Выходит, что искусственный интеллект стал расистом лишь потому, что его неверно обучили?

Хочешь узнавать главные новости сайта MPort.ua в Telegram? Подписывайся на наш канал.

Это интересно

x
Для удобства пользования сайтом используются Cookies. Подробнее...
This website uses Cookies to ensure you get the best experience on our website. Learn more... Ознакомлен(а) / OK