Учені назвали "популярне" джерело "галюцинацій"

Учені не заперечують, що ШІ може допомогти в організації наукового процесу. Але потрібно відповідальніше підходити до його використання.
 |  Автор: Соколенко Вікторія
Учені назвали "популярне" джерело "галюцинацій"
Ілюстративне зображення / Getty Images

Здатність великих мовних моделей штучного інтелекту до генерації неправдивого, але переконливого контенту, безпосередньо загрожує науці та науковій істині. Вчені називають таке вигадування інформації з боку ШІ галюцинаціями. Про це повідомляє The Next Web.

Читайте також: Фільтрація оточення: у світі можуть вийти унікальні навушники

Набори даних від штучного інтелекту можуть містити помилкові твердження, думки, неточності. Надмірна довіра з боку людей здатна посилити проблему. А її викликає частково інтерфейс чат-ботів, які намагаються відповідати на запитання впевнено звучним і добре написаним текстом.

У науці дуже важливі достовірні дані. Для протидії так званим галюцинаціям дослідники радять використовувати мовні моделі у вигляді перекладача з нульовим результатом. Тобто, користувачі при наданні певних даних просять перетворити їх. А не покладатися на модель, як на джерело знань. Так простіше перевірити коректність результату.

Нагадаємо, раніше ми писали про те, що Samsung випустила свій штучний інтелект Gauss. 

Читайте також: Штучний інтелект змінить життя світу у 2024 році - ЗМІ

Підпишись на наш Telegram-канал, якщо хочеш першим дізнаватися головні новини.



Не пропусти інші цікаві статті, підпишись:
Ми в соціальних мережах