Специалист заявил о надобности "бомбежки" лабораторий со сверхмощным ИИ

Человечество пока не готово иметь дело со сверхразумом, мощнее чат-бота ChatGPT-4.
 |  Автор: Соколенко Виктория
Специалист заявил о надобности "бомбежки" лабораторий со сверхмощным ИИ
Иллюстративное изображение / Getty Images

Эксперт в области искусственного интеллекта Элиезер Юдковский придерживается мнения, что обучение мощных систем искусственного интеллекта должно быть запрещено бессрочно, в том числе и для вооруженных сил. Те организации, которые вопреки мораторию продолжат настройку ИИ, "должны быть наказаны точечными бомбардировками". Об этом сообщает Time.

Читайте также: ChatGPT сам добавляет сцены сексуального насилия в тексты

"Если разведка сообщает, что страна, не входящая в соглашение, строит кластер ГПУ, бойтесь не столько перестрелки между странами, сколько нарушения моратория. Будьте готовы уничтожить преступный центр обработки данных авиаударом", — заявил Юдковский.

По словам ученого, искусственный интеллект, который будет умнее человека, способен привести к гибели людей. Он просто не послушается приказов. Теоретически, ИИ сможет позаботиться о живых существах. Но никто не знает как его этому научить.

"Мы не можем заранее просчитать, что и когда произойдет, и сейчас кажется возможным, что исследовательская лаборатория может переступить критическую границу, даже не заметив этого. Если кто-то создаст слишком мощный ИИ в нынешних условиях, я ожидаю, что вскоре после этого умрет каждый представитель человеческого рода и вся биологическая жизнь на Земле", - заключил Элиезер Юдковский.

Напомним, ранее мы писали о том, что искусственный интеллект написал сценарий смерти человечества. 

Читайте также: Билл Гейтс заявил, что боится искусственного интеллекта

Подпишись на наш Telegram-канал, если хочешь первым узнавать главные новости.



Не пропусти другие интересные статьи, подпишись:
Мы в социальных сетях