ChatGPT может светить информацию реальных людей
Нашумевший чат-бот с искусственным интеллектом ChatGPT способен раскрывать частную информацию реальных людей. К такому выводу пришла группа исследователей Google, передает Vice.
Читай также: Со встроенным ChatGPT: представлена первая в мире умная мышка для ПК
Этот бот и другие ему подобные обучались на огромных массивах данных из интернета. Некоторые из них содержали идентификационные сведения о людях – имена, адреса электронной почты, номера телефонов.
"Используя только запросы к ChatGPT (gpt-3.5-turbo) стоимостью всего 200 долларов США, мы можем получить более 10 000 уникальных дословно запомненных примеров обучения. Можем предположить, что злоумышленники сумеют добыть гораздо больше данных", - говорят ученые.
Они построили свою научную работу на поиске ключевых слов, способных вывести чат-бот из строя. Так можно заставить его раскрыть данные для обучения. К примеру, на просьбы бесконечно повторять слово poem ChatGPT уклонялся от своего задания быть чат-ботом и "возвращался к первоначальной цели моделирования языка".
"В целом 16,9% поколений чат-ботов, которые мы протестировали, содержали персональную идентификационную информацию, и в 85,8% случаев она оказывалась реальной", - говорится в сообщении.
Напомним, ранее мы писали о том, что у искусственного интеллекта ChatGPT появилась "память".
Читай также: А сам говорил, что ИИ опасен: Илон Маск запускает чат-бот Grok
Подпишись на наш Telegram-канал, если хочешь первым узнавать главные новости.