Поддержать команду Зеркала
Беларусы на войне
  1. На больших выходных в Беларуси объявили оранжевый уровень опасности. Каких сюрпризов от погоды стоит ждать
  2. Беларус приехал на границу с Польшей, вышел подышать, а автобус с вещами исчез из очереди. Что было дальше
  3. Ключевая госкомпания РФ угробила десятки многомиллиардных проектов. Это помогло Украине выстоять в войне, а россиянам не на чем ездить
  4. «Як ты сюды патрапіў, рабочы?». Алесь Беляцкий рассказал, как к нему в колонию приезжал Роман Протасевич
  5. В МИД России заявили о реальном приближении разрешения украинского конфликта
  6. На военном факультете БГУИР висит флаг ЧВК Вагнера. Снимки случайно опубликовал сам университет
  7. Путин еще в 2001-м говорил Бушу, что Украина «веками была частью России», и грозил проблемами. В США опубликовали стенограммы
  8. Можно ли православным отмечать Рождество 25 декабря, и что тогда делать 7 января? Спросили у священника
  9. «Донбасс наш» и «загнивающая Европа». Путин обсудил войну на закрытой встрече с богачами — СМИ узнали, о чем он говорил
  10. «Он не может отойти, это что-то личное». Почему Лукашенко так активно следит за событиями в демсилах — мнение Артема Шрайбмана
  11. Зеленский заявил, что оборудование для наведения «Шахедов» установлено на крышах жилых домов в Беларуси
  12. 99 лет назад вышел первый беларусский фильм. Рассказываем, как из него пропали кадры с начальством и как он все еще влияет на наше кино


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.