Переключиться на мобильную версию

Сооснователь Apple назвал искусственный интеллект угрозой человечеству

По мнению Стива Возняка, искусственный интеллект может представлять опасность для всего человечества, если специалисты продолжат развивать свои проекты.

Возняк объяснил, что искусственный интеллект, который смог бы перенять креативность мышления людей, представляет силу, с которой придется бороться.Об этом изобретатель и бизнесмен заявил в интервью австралийскому изданию Financial Review.

Стив Возняк предупредил об опасности искусственного интеллекта
Стив Возняк предупредил об опасности искусственного интеллекта
cbslocal.com

Читай также: Стив Возняк развеял миф о создании компьютера Apple в гараже

"Я согласен со Стивеном Хокингом [британский физик-теоретик] и Элоном Маском [основатель SpaceX, Tesla Motors и PayPal], которые заявляли, что будущее для человечества может оказаться мрачным. Рано или поздно мыслящие как человек устройства, задуманные для облегчения нашей жизни, начнут понимать, что они лучше. Кто станет тогда управлять компаниями — медлительный человек или машины?" — сказал Возняк.

Он отметил, что по отношению к мыслящим машинам видит себя низшим существом. «Станем ли мы богами или, наоборот, займем место домашних животных? Или опустимся сразу на несколько ступеней ниже, превратившись для искусственного интеллекта в нечто вроде муравьев? Я не знаю точно», — добавил сооснователь Apple.

Читай также: Сооснователь Google: Apple и Facebook — враги свободного интернета

Ранее об угрозе развития искусственного интеллекта заявил основатель Microsoft Билл Гейтс. В этом вопросе он придерживается точки зрения Маска. Она заключается в том, что машины нужно ограничивать, не предоставляя им полной свободы развития.

Бесконтрольным ростом искусственного интеллекта также обеспокоен Хокинг. Ученый отмечал, что опасается систем, развитие которых не будет иметь рамок.

Смотри также видео, в котором рассказывается об опасности искусственного интеллекта:

Искусственный интеллект уже скоро
0:00 / 04:30

Комментариев (2)
Оставляя комментарий, пожалуйста, помните о том, что содержание и тон Вашего сообщения могут задеть чувства реальных людей, непосредственно или косвенно имеющих отношение к данной новости. Пользователи, которые нарушают эти правила грубо или систематически, будут заблокированы.
Полная версия правил
Осталось 300 символов
Отсортировать по дате Вниз
гость  (аноним)  24.03.2015, 18:54
Оценка:  0
гость
Зачем бояться того, чего ещё нет и врядли будет?
слава    25.03.2015, 00:21
Оценка:  0
слава
хлопчик,какую мудрую мысль ты изрёк !!!
Реклама
Мы в соцсетях
Реклама
Реклама
Реклама
Для удобства пользования сайтом используются Cookies. Подробнее здесь