Учені назвали "популярне" джерело "галюцинацій"
Здатність великих мовних моделей штучного інтелекту до генерації неправдивого, але переконливого контенту, безпосередньо загрожує науці та науковій істині. Вчені називають таке вигадування інформації з боку ШІ галюцинаціями. Про це повідомляє The Next Web.
Читайте також: Фільтрація оточення: у світі можуть вийти унікальні навушники
Набори даних від штучного інтелекту можуть містити помилкові твердження, думки, неточності. Надмірна довіра з боку людей здатна посилити проблему. А її викликає частково інтерфейс чат-ботів, які намагаються відповідати на запитання впевнено звучним і добре написаним текстом.
У науці дуже важливі достовірні дані. Для протидії так званим галюцинаціям дослідники радять використовувати мовні моделі у вигляді перекладача з нульовим результатом. Тобто, користувачі при наданні певних даних просять перетворити їх. А не покладатися на модель, як на джерело знань. Так простіше перевірити коректність результату.
Нагадаємо, раніше ми писали про те, що Samsung випустила свій штучний інтелект Gauss.
Читайте також: Штучний інтелект змінить життя світу у 2024 році - ЗМІ
Підпишись на наш Telegram-канал, якщо хочеш першим дізнаватися головні новини.