- Горячие темы:
- Все для фронта - все про оружие и технику
Ученые назвали "популярный" источник "галлюцинаций"
Способность больших языковых моделей искусственного интеллекта по генерации неправдивого, но убедительного контента, напрямую угрожает науке и научной истине. Ученые называют такое выдумывание информации со стороны ИИ галлюцинациями. Об этом сообщает The Next Web.
Читайте также: Фильтрация окружения: в мире могут выйти уникальные наушники
Наборы данных от искусственного интеллекта могут содержать ошибочные утверждения, мысли, неточности. Чрезмерное доверие со стороны людей способно усугубить проблему. А его вызывает в частичной степени интерфейс чат-ботов, которые стараются отвечать на вопросы уверенно звучным и хорошо написанным текстом.
В науке очень важны достоверные данные. Для противодействия так называемым галлюцинациям исследователи советуют использовать языковые модели в виде переводчика с нулевым результатом. То есть, пользователи при предоставлении определенных данных просят превратить их. А не полагаться на модель, как на источник знаний. Так проще проверить корректность результата.
Напомним, ранее мы писали о том, что Samsung выпустила свой искусственный интеллект Gauss.
Читайте также: Искусственный интеллект изменит жизнь мира в 2024 году - СМИ
Подпишись на наш Telegram-канал, если хочешь первым узнавать главные новости.