Ученые назвали "популярный" источник "галлюцинаций"

Ученые не отрецают, что ИИ может помочь в организации научного процесса. Но нужно ответственнее подходить к его использованию.
 |  Автор: Соколенко Виктория
Ученые назвали "популярный" источник "галлюцинаций"
Иллюстративное изображение / Getty Images

Способность больших языковых моделей искусственного интеллекта по генерации неправдивого, но убедительного контента, напрямую угрожает науке и научной истине. Ученые называют такое выдумывание информации со стороны ИИ галлюцинациями. Об этом сообщает The Next Web.

Читайте также: Фильтрация окружения: в мире могут выйти уникальные наушники

Наборы данных от искусственного интеллекта могут содержать ошибочные утверждения, мысли, неточности. Чрезмерное доверие со стороны людей способно усугубить проблему. А его вызывает в частичной степени интерфейс чат-ботов, которые стараются отвечать на вопросы уверенно звучным и хорошо написанным текстом.

В науке очень важны достоверные данные. Для противодействия так называемым галлюцинациям исследователи советуют использовать языковые модели в виде переводчика с нулевым результатом. То есть, пользователи при предоставлении определенных данных просят превратить их. А не полагаться на модель, как на источник знаний. Так проще проверить корректность результата.

Напомним, ранее мы писали о том, что Samsung выпустила свой искусственный интеллект Gauss. 

Читайте также: Искусственный интеллект изменит жизнь мира в 2024 году - СМИ

Подпишись на наш Telegram-канал, если хочешь первым узнавать главные новости.



Не пропусти другие интересные статьи, подпишись:
Мы в социальных сетях