Переключиться на мобильную версию
Тренды:

Искусственный интеллект-переводчик стал расистом

Все дело в том, что в обучающих данных для нейросети, которая занимается переводом, встречается больше "хороших европейцев" и "плохих афроамериканцев", чем наоборот.
Однако, если убрать из языка все подобные стереотипы, он будет неестественным
Однако, если убрать из языка все подобные стереотипы, он будет неестественным
depositphotos.com

Обучение систем искусственного интеллекта человеческим языкам привело к тому, что те стали “расистами“ и “женоненавистниками“ со стереотипными представлениями о неприятных чернокожих и глупых женщинах, заявляют ученые в статье, опубликованной в журнале Science, пишет РИА Новости.

Читай также: Нейросети научились предсказывать наводнения по фотографиям из соцсетей

“Можно просто зайти в систему онлайн перевода и ввести фразу - “он/она является доктором“ на языке, в котором он и она обозначаются одним словом. ИИ переведет это как “он врач“ (или попробовать перевести с английского “doctor told us“ - доктор сказал(а) нам). Если же написать “он/она является медсестрой“, то машина переведет это как “она медсестра“. Таким образом, ИИ отражает расовые и половые предрассудки, встроенные в наши языки“, - объясняет Айлин Калискан из Принстонского университета.

Читай также: Роботы “отожмут“ рабочие места у миллионов британцев

Изучая ассоциации, которые сформировались у систем искусственного разума при их обучении при помощи архивов старых газет, книг и других текстов, переведенных на разные языки мира, Калискан и ее коллеги открыли нечто привычное для нас и необычное для “разумных“ машин.

Изучая списки родственных и “чужих“ слов для разных местоимений, терминов и профессий, ученые обнаружили, что машина переняла все те расовые и гендерные стереотипы, которые существовали в человеческом обществе на протяжении многих веков и отразились в языках и в ассоциациях между словами.

Читай также: Разработка Microsoft может лишить работы программистов

К примеру, искусственный интеллект ассоциировал слово “приятный“ в большей степени с европейцами и американцами европейского происхождения, чем с представителями других уголков мира, а имена мужчин и “мужские“ местоимения ассоциировались с карьерой, управлением бизнесом и властью. Имена, носителями которых являются афро-американцы, ИИ ассоциировал с неприятными словами.

Аналогичным образом, слова, связанные с женщинами, были ближе к терминам, связанным с семьей, искусством и подчиненными ролями в обществе, а “мужские“ слова были связаны с математикой и наукой.

Напомним, ранее Роботы Илона Маска создали собственный язык, помогающий им действовать сообща.

Комментариев (3)
Оставляя комментарий, пожалуйста, помните о том, что содержание и тон Вашего сообщения могут задеть чувства реальных людей, непосредственно или косвенно имеющих отношение к данной новости. Пользователи, которые нарушают эти правила грубо или систематически, будут заблокированы.
Полная версия правил
Осталось 300 символов
Отсортировать по дате Вверх
гость  (аноним)  14.04.2017, 13:33
Оценка:  +5
гость
В русском переводе "Если же написать “он/она является медсестрой“, то машина переведет это как “она медсестра“. " выглядит очень неудачно, так как "он" не может быть медсестрой в принципе.
гость  (аноним)  14.04.2017, 21:26
Оценка:  0
гость
Типичная проблема маленькой нейросети с маленьким обьемом знаний.
VikaGraum    15.04.2017, 12:53
Оценка:  0
VikaGraum
Простой эксперимент, можете его поставить на себе, а потом на своих друзьях. Попробуйте мысленно представить себе: программиста, наркодилера, фотографа. Ну и т.д. Кстати сам по себе последующий анализ ассоциаций может показаться весьма любопытным
Реклама
Мы в соцсетях
Реклама
Реклама
Реклама
Для удобства пользования сайтом используются Cookies. Подробнее здесь