- Гарячі теми:
- Все для фронту - все про зброю та техніку
Учені назвали "популярне" джерело "галюцинацій"
Здатність великих мовних моделей штучного інтелекту до генерації неправдивого, але переконливого контенту, безпосередньо загрожує науці та науковій істині. Вчені називають таке вигадування інформації з боку ШІ галюцинаціями. Про це повідомляє The Next Web.
Читайте також: Фільтрація оточення: у світі можуть вийти унікальні навушники
Набори даних від штучного інтелекту можуть містити помилкові твердження, думки, неточності. Надмірна довіра з боку людей здатна посилити проблему. А її викликає частково інтерфейс чат-ботів, які намагаються відповідати на запитання впевнено звучним і добре написаним текстом.
У науці дуже важливі достовірні дані. Для протидії так званим галюцинаціям дослідники радять використовувати мовні моделі у вигляді перекладача з нульовим результатом. Тобто, користувачі при наданні певних даних просять перетворити їх. А не покладатися на модель, як на джерело знань. Так простіше перевірити коректність результату.
Нагадаємо, раніше ми писали про те, що Samsung випустила свій штучний інтелект Gauss.
Читайте також: Штучний інтелект змінить життя світу у 2024 році - ЗМІ
Підпишись на наш Telegram-канал, якщо хочеш першим дізнаватися головні новини.