Искусственному интеллекту пророчат крах

Доказательство того, что умные чат-боты - развлечение.
 |  Автор: Соколенко Виктория
Искусственному интеллекту пророчат крах
Иллюстративное изображение / Getty Images

Моделям искусственного интеллекта грозит ухудшение работы. Поскольку они обучаются на контенте, который сгенерировали другие ИИ-модули. Обилие такой информации специалисты сравнивают с пластиком, который засоряет океан. Об этом сообщает VentureBeat.

Читайте также: ChatGPT раздавал ключи активации Windows

Ключевые тезисы материала о будущем искусственного интеллекта:

  • Чем больше людей будут использовать искусственный интеллект для производства контента, то более волнующим становится вопрос: что произойдет, когда ИИ-контент будет царить в интернете вместо преимущественно человеческого?
  • Исследователи из Британии и Канады кинулись искать ответ на вопрос. Использование ИИ-контента для обучения ИИ приведет к проблемам с моделями. Цитата из их научной работы: "Если вы будете тренировать музыкальную модель на Моцарте, можете ожидать результаты, такие как у Моцарта, но без "искры", назовем их "Сальери". А если "Сальери" продолжит тренировать следующие поколения, какое звучание мы будем иметь уже на пятом-шестом поколении?" - пишут авторы исследования.
  • Исходя из распределения вероятностей для моделей, работающих с текстом и изображениями, ученые пришли к выводу, что обучение на данных другого искусственного интеллекта равно коллапсу, ухудшению качества работы. Модель по итогу забывает настоящее распределение данных. Накопление ошибок приводит к худшей интерпретации реальности.
  • Ухудшение ситуации также сравнимо с загрязнением атмосферы углекислотой. Человечество на подобном уровне собирается заполнить интернет контентом без смысла.

Напомним, ранее мы писалио том, что ЕС возьмет под контроль искусственный интеллект, ChatGPT тоже. 

Читайте также: Людей хотят уберечь от риска вымирания из-за искусственного интеллекта

Подпишись на наш Telegram-канал, если хочешь первым узнавать главные новости.



Не пропусти другие интересные статьи, подпишись:
Мы в социальных сетях