Искусственный интеллект принял шахматы за расизм

Некоторые гроссмейстеры на YouTube даже попали в бан
 |  Автор: Максим Григорьев
Искусственный интеллект принял шахматы за расизм
freepik.com

"Ход королевы" или "Ферзевый гамбит", недавний телевизионный мини-сериал о женщине-гроссмейстере, возможно, пробудил повышенный интерес к шахматам. Но общение в соцсетях о цветах фигурок могут привести к бану со стороны искусственного интеллекта.

Это то, что, по подозрению пары исследователей из Университета Карнеги-Меллона, произошло с Антонио Радичем, хорватским шахматистом, ведущим популярный канал на YouTube. В июне прошлого года его аккаунт был заблокирован за "вредный и опасный" контент.

Читай также: Искусственный интеллект разгромил профессионалов в покер с помощью интуиции

YouTube так и не представил объяснений и восстановил канал в течение 24 часов, сказал Ашикур Р. Худабухш, научный сотрудник Института языковых технологий (LTI) CMU. Тем не менее, возможно, что разговор "черные против белых" во время интервью с гроссмейстером Хикару Накамурой запускал программу, которая автоматически обнаруживает расистские высказывания, предположил он.

"Мы не знаем, какие инструменты использует YouTube, но если они полагаются на искусственный интеллект для выявления расистских высказываний, такого рода несчастный случай может произойти", - сказал Худабухш. И если это случилось публично с кем-то столь же известным, как Радич, это вполне может происходить незаметно для многих других людей, которые не так хорошо известны.

Чтобы увидеть, возможно ли это, ХудаБухш и Рупак Саркар, инженер-исследователь курса LTI, протестировали два современных классификатора речи - тип программного обеспечения ИИ, которое можно обучить обнаруживать признаки языка вражды. Они использовали классификаторы, чтобы просмотреть более 680 000 комментариев, собранных с пяти популярных шахматных каналов YouTube.

Затем они случайным образом отобрали 1000 комментариев, которые по крайней мере один из классификаторов пометил как разжигание ненависти. Когда они вручную просмотрели эти комментарии, они обнаружили, что подавляющее большинство - 82% - не содержало языка ненависти. По их словам, такие слова, как черный, белый, нападение и угроза, казались спусковыми механизмами.

Читай также: Искусственный интеллект научился предсказывать смерть

Как и в случае с другими программами искусственного интеллекта, которые зависят от машинного обучения, эти классификаторы обучаются на большом количестве примеров, и их точность может варьироваться в зависимости от набора используемых примеров.

Например, Худабухш вспомнил упражнение, с которым он столкнулся в студенческие годы, цель которого заключалась в том, чтобы идентифицировать «ленивых собак» и «активных собак» на наборе фотографий. На многих тренировочных фотографиях активных собак видны широкие просторы травы, потому что бегущие собаки часто находятся на расстоянии. В результате программа иногда определяла фотографии с большим количеством травы как примеры активных собак, даже если на фотографиях не было собак/

Он отметил, что в случае с шахматами многие наборы обучающих данных, вероятно, включают несколько примеров шахматной беседы, что приводит к ошибочной классификации.

Исследовательская работа Худабухша и Саркара, недавнего выпускника Государственного инженерного колледжа Кальяни в Индии, в этом месяце выиграла трехминутную презентацию лучшего студента на ежегодной конференции Ассоциации содействия развитию ИИ.

Напомним, ранее сообщалось, что искусственный интеллект впервые одолел человека в дебатах.

Хотите знать важные и актуальные новости раньше всех? Подписывайтесь на Bigmir)net в Facebook и Telegram.

 


Не пропусти другие интересные статьи, подпишись:
Мы в социальных сетях