Поддержать команду Зеркала
Беларусы на войне
  1. СМИ: Башар Асад с членами своей семьи прибыл в Москву, Россия предоставила им убежище
  2. «Три-пять раз перевернулись». Александр Солодуха с сыновьями попали в жуткое ДТП
  3. «Зарабатываю 500 долларов в месяц». Интервью блога «Люди» с одной из главных надежд беларусского хоккея, великолепно играющего в Канаде
  4. Катастрофа библейских масштабов. Вспоминаем самое крупное наводнение в истории человечества — тогда погибли миллионы
  5. Размещение «Орешника» в Беларуси сильно повысит угрозу для Украины и НАТО? Эксперты сомневаются — и на это есть причины
  6. Когда династия Асадов пришла к власти, кто из них правил (а кто не смог) и что теперь пошло не так. Кратко рассказываем
  7. Лукашенко перед выборами обрушился на все сферы: кругом «бардак». Кажется, критике не подвергалась только одна группа людей — вот какая
  8. Башар Асад отстранен, повстанцы захватили Дамаск. Премьер Сирии готов передавать им власть
  9. «Самый большой внешнеполитический удар за всю карьеру». Эксперт — о том, как крах режима в Сирии скажется на Путине (и заодно Лукашенко)
  10. «У нас хоть министром дерьма стань, заведовать дерьмом не будешь. У нас один глаўный министр». Интервью с лидером РСП о родине и эмиграции
  11. Российские власти тестируют отключение иностранных сайтов, которыми пользуются все (включая и беларусов)


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.