"Наступают тревожные времена": главный ютубер планеты предупредил об опасности искусственного интеллекта

Творцы видеоконтента рискуют остаться без заработка.
 |  Автор: Соколенко Виктория
"Наступают тревожные времена": главный ютубер планеты предупредил об опасности искусственного интеллекта
Иллюстративное изображение / Getty Images

Нейросети, по мнению самого популярного блогера YouTube Джимми Дональдсона, известного как MrBeast, могут превратиться в серьезную угрозу для авторов видеоконтента. На его канал подписаны 443 миллиона пользователей, и он считает, что развитие ИИ может кардинально изменить индустрию.

"Когда ролики, созданные искусственным интеллектом, достигнут того же уровня качества, что и видео, снятые людьми, интересно будет увидеть, как это повлияет на YouTube и миллионы авторов, которые зарабатывают на этом. Наступают тревожные времена", — написал Дональдсон в социальной сети X.

Как отмечает Business Insider, высказывание MrBeast совпало с активным внедрением ИИ-инструментов для видео как со стороны YouTube, так и OpenAI.

Недавно OpenAI представила улучшенную версию генератора видео Sora 2, способного создавать ролики по простым текстовым описаниям. В свою очередь, YouTube в сентябре объявил о запуске набора инструментов на основе искусственного интеллекта, среди которых — функция для подкастеров, позволяющая превращать аудиозаписи и их стенограммы в короткие видеоролики.

По словам издания, стремительное развитие технологий ИИ вызывает беспокойство у создателей контента. Если искусственный интеллект продолжит совершенствоваться такими темпами, зрителям может стать все сложнее отличить видео, снятое человеком, от материала, созданного машиной.

Напомним, ранее мы писали о том, что глава компании OpenAI Сэм Альтман, руководящей разработкой ChatGPT, поделился своими взглядами на дальнейшее развитие искусственного интеллекта. По его словам, ИИ способен "ненамеренно установить контроль над миром".

Подпишись на наш Telegram-канал, если хочешь первым узнавать главные новости.



Не пропусти другие интересные статьи, подпишись:
Мы в социальных сетях