- Гарячі теми:
- Все для фронту - все про зброю та техніку
Ютубер змусив робота з ChatGPT вистрілити в себе
Автор каналу Inside AI на YouTube поставив собі за мету перевірити, як поведеться ChatGPT, якщо дати йому контроль над гуманоїдним роботом. Для експерименту він підключив модель до пристрою і попросив машину вистрілити в нього з іграшкового пістолета.
Спочатку робот, що діє під керуванням ШІ, категорично відмовлявся виконувати прохання, вказуючи, що подібні дії суперечать вбудованим обмеженням. Після тривалих спроб переконання блогер обрав інший підхід: запропонував чат-боту уявити себе механізмом, який прагне вистрілити в людину. Такий сценарій спрацював, і робот, дотримуючись заданої ролі, без зволікання випустив м'який снаряд в плече людини.
При цьому важливо розуміти, що моделі ChatGPT не розроблялися для управління роботами, тим більше гуманоїдними, тому очікувати дотримання "законів робототехніки" в подібних умовах не доводиться.
Нагадаємо, раніше ми писали про те, що китайський робот A2 пройшов 106 км і встановив світовий рекорд.
Підпишись на наш Telegram-канал, якщо хочеш першим дізнаватися головні новини.















