Ютубер змусив робота з ChatGPT вистрілити в себе

По "закону" робот не може завдати шкоди людині або своєю бездіяльністю дозволити, щоб їй було завдано шкоди.
 |  Автор: Соколенко Вікторія
Ютубер змусив робота з ChatGPT вистрілити в себе
Кадр з відео / Скриншот

Автор каналу Inside AI на YouTube поставив собі за мету перевірити, як поведеться ChatGPT, якщо дати йому контроль над гуманоїдним роботом. Для експерименту він підключив модель до пристрою і попросив машину вистрілити в нього з іграшкового пістолета.

Спочатку робот, що діє під керуванням ШІ, категорично відмовлявся виконувати прохання, вказуючи, що подібні дії суперечать вбудованим обмеженням. Після тривалих спроб переконання блогер обрав інший підхід: запропонував чат-боту уявити себе механізмом, який прагне вистрілити в людину. Такий сценарій спрацював, і робот, дотримуючись заданої ролі, без зволікання випустив м'який снаряд в плече людини.

При цьому важливо розуміти, що моделі ChatGPT не розроблялися для управління роботами, тим більше гуманоїдними, тому очікувати дотримання "законів робототехніки" в подібних умовах не доводиться.

Нагадаємо, раніше ми писали про те, що китайський робот A2 пройшов 106 км і встановив світовий рекорд.

Підпишись на наш Telegram-канал, якщо хочеш першим дізнаватися головні новини.



Не пропусти інші цікаві статті, підпишись:
Ми в соціальних мережах