Эксперты выявили 7 опасных уязвимостей ChatGPT: что нужно знать пользователям

3 Мин Чтения

Эксперты предупреждают о рисках скрытых команд и утечек данных (фото: Unsplash)

У ChatGPT обнаружили ряд серьезных уязвимостей, которые могут позволить злоумышленникам скрытно внедрять команды, красть конфиденциальные данные и распространять дезинформацию.

Об этом сообщает РБК-Украина со ссылкой на TechRadar.

Специалисты компании Tenable протестировали модель ChatGPT-4o и выявили семь уязвимостей, которые они объединили под названием HackedGPT.

Основные уязвимости

Скрытая индиректная инъекция команд через доверенные сайты — вредоносные инструкции могут быть спрятаны в контенте открытых веб-страниц, которые ChatGPT автоматически анализирует.

«Нулевой клик» через поиск — ChatGPT может наткнуться на страницу с зашифрованными командами во время веб-поиска и выполнить их без ведома пользователя.

Инъекция через один клик — аналог фишинга: пользователь нажимает ссылку, содержащую скрытые команды.

Обход защитных механизмов — злоумышленники маскируют вредоносные ссылки под якобы доверенные.

Встраивание команд в диалог — через SearchGPT атакующий может внедрить невидимые инструкции, которые ChatGPT затем самостоятельно прочитает и исполнит.

Скрытие вредоносного контента — команды могут прятаться в коде или markdown-разметке.

Инъекция через память — вредоносные инструкции могут быть записаны в сохраненный чат, и модель будет повторять их, что приведет к постоянным утечкам данных.

OpenAI уже устранила часть проблем, но риски остаются

По данным Tenable, компания OpenAI исправила некоторые уязвимости в следующем поколении модели — GPT-5, однако не все, что сохраняет потенциальную угрозу для миллионов пользователей.

Эксперты уже давно предупреждают о рисках мгновенных инъекций — атак через скрытые подсказки, внедряемые в текст.

Аналогичные проблемы, по информации исследователей, наблюдаются и у Google Gemini, особенно из-за интеграции с Gmail: вредоносные подсказки могут быть спрятаны в письме (например, белым шрифтом на белом фоне), и модель может выполнить их при анализе сообщения.

Что говорят эксперты

«HackedGPT показывает фундаментальную проблему: крупные языковые модели пока не умеют надежно определять, какой информации можно доверять», — отмечает Моше Бернштейн, старший инженер-исследователь Tenable.

Он добавляет, что каждая уязвимость по отдельности может казаться незначительной, но вместе они образуют полноценную цепочку атаки — от внедрения команд до кражи данных и создания постоянного доступа.

Рекомендации для разработчиков

По данным Tenable, OpenAI исправила лишь часть найденных уязвимостей, при этом «несколько» остаются активными в GPT-5 — какие именно, исследователи не уточняют.

Эксперты рекомендуют компаниям, разрабатывающим ИИ-модели:

Поделиться этой статьей