Ютубер заставил робота с ChatGPT выстрелить в себя

По "закону" робот не может причинить вред человеку или своей бездеятельностью позволить, чтобы ему был причинен вред.
 |  Автор: Соколенко Виктория
Ютубер заставил робота с ChatGPT выстрелить в себя
Кадр из видео / Скриншот

Автор канала Inside AI на YouTube поставил себе цель проверить, как поведет себя ChatGPT, если дать ему контроль над гуманоидным роботом. Для эксперимента он подключил модель к устройству и попросил машину выстрелить в него из игрушечного пистолета.

Сначала робот, действующий под управлением ИИ, категорически отказывался выполнять просьбу, указывая, что подобные действия противоречат встроенным ограничениям. После длительных попыток убеждения блогер выбрал другой подход: предложил чат-боту представить себя механизмом, который стремится выстрелить в человека.

Такой сценарий сработал, и робот, следуя заданной роли, без промедления выпустил мягкий снаряд в плечо человека. При этом важно понимать, что модели ChatGPT не разрабатывались для управления роботами, тем более гуманоидными, поэтому ожидать соблюдения "законов робототехники" в подобных условиях не приходится.

Напомним, ранее мы писали о том, что китайский робот A2 прошел 106 км и установил мировой рекорд. 

Подпишись на наш Telegram-канал, если хочешь первым узнавать главные новости.



Не пропусти другие интересные статьи, подпишись:
Мы в социальных сетях