Поддержать команду Зеркала
Беларусы на войне
  1. Больше не безопасно. Беларусов призвали не спешить кликать на первые ссылки в поиске Google
  2. «Народ начал подуспокаиваться». Глава КГК рассказал о «нехорошей тенденции» после взбучки от Лукашенко
  3. Россия придумала «контрнаступление ВСУ» на границе Запорожской и Днепропетровской областей, чтобы скрыть свою прежнюю ложь — вот какую
  4. Доллар переходит в стадию роста: какими будут курсы в феврале? Прогноз по валютам
  5. «Через 10 лет это будет выжженная земля». Спросили Марию Колесникову, зачем ЕС диалог с Лукашенко
  6. Одна из стран Европы переходит на электронные визы. Что это значит для беларусов
  7. У синоптиков для беларусов две новости. Хорошая — в страну идет потепление
  8. Один из самых известных беларусских актеров стал водителем автобуса в Польше
  9. С 11 февраля для замены паспорта нужно будет принести справку из военкомата
  10. «Послал вслед за русским кораблем». В Вильнюсе работающая в супермаркете беларуска попала в языковой скандал
  11. Крупная IT-компания увольняет 23% команды в Польше. Значительная часть сотрудников офиса — беларусы, релоцированные в 2022 году
  12. Лукашенко говорил, на что можно потратить деньги, сэкономленные на освещении. Стали известны подробности этих планов
  13. «Не бросались на задачу с криками „За Михалыча“». Тур — о том, почему Лукашенко рассердился на аплодисменты уволенному топ-чиновнику
  14. «Они сознательно принимают ненормальность». Мария Колесникова ответила Григорию Азаренку


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.