Поддержать команду Зеркала
Беларусы на войне
  1. На четверг объявили желтый уровень опасности. Водителям и пешеходам — приготовиться
  2. «Оторвался тромб». Правда ли, что это может случиться у любого, даже здорового человека, и как избежать смертельной опасности?
  3. Минсвязи вводит ограничение скорости для безлимитного мобильного интернета
  4. «Люди военкоматам нужны». Эксперты обнаружили новшества в осеннем призыве и рассказали, к чему готовиться тем, кому в армию весной
  5. Зачем Трамп позвал Лукашенко в «Совет мира», где членство стоит миллиард долларов — спросили у аналитика
  6. Кремль не демонстрирует готовности к компромиссам по Украине — ISW
  7. В Минск начнет летать новая авиакомпания. Билет стоит всего 89 рублей
  8. «Если бы беларусский народ победил в 2020-м, российского „Орешника“ не было бы в Беларуси». Зеленский выступил с жесткой речью в Давосе
  9. Белый дом перепутал Бельгию с Беларусью и включил ее в список участников «Совета мира» Трампа
  10. Мужчина сделал колоноскопию и умер через три недели. Семья написала уже более 10 писем в госорганы
  11. На войне в Украине погиб беларусский доброволец Алексей Лазарев
  12. Умерла Ирина Быкова, вдова Василя Быкова
  13. «Это куда более крепкий орешек». СМИ узнали еще одну страну, где США рассчитывают сменить власть до конца года
  14. После аварии на теплотрассе Лукашенко заметил очевидную проблему с отоплением. Ее не могут решить по парадоксальной причине — рассказываем


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.