Эксперты предупреждают о рисках скрытых команд и утечек данных (фото: Unsplash)
У ChatGPT обнаружили ряд серьезных уязвимостей, которые могут позволить злоумышленникам скрытно внедрять команды, красть конфиденциальные данные и распространять дезинформацию.
Об этом сообщает РБК-Украина со ссылкой на TechRadar.
Специалисты компании Tenable протестировали модель ChatGPT-4o и выявили семь уязвимостей, которые они объединили под названием HackedGPT.
Основные уязвимости
Скрытая индиректная инъекция команд через доверенные сайты — вредоносные инструкции могут быть спрятаны в контенте открытых веб-страниц, которые ChatGPT автоматически анализирует.
«Нулевой клик» через поиск — ChatGPT может наткнуться на страницу с зашифрованными командами во время веб-поиска и выполнить их без ведома пользователя.
Инъекция через один клик — аналог фишинга: пользователь нажимает ссылку, содержащую скрытые команды.
Обход защитных механизмов — злоумышленники маскируют вредоносные ссылки под якобы доверенные.
Встраивание команд в диалог — через SearchGPT атакующий может внедрить невидимые инструкции, которые ChatGPT затем самостоятельно прочитает и исполнит.
Скрытие вредоносного контента — команды могут прятаться в коде или markdown-разметке.
Инъекция через память — вредоносные инструкции могут быть записаны в сохраненный чат, и модель будет повторять их, что приведет к постоянным утечкам данных.
OpenAI уже устранила часть проблем, но риски остаются
По данным Tenable, компания OpenAI исправила некоторые уязвимости в следующем поколении модели — GPT-5, однако не все, что сохраняет потенциальную угрозу для миллионов пользователей.
Эксперты уже давно предупреждают о рисках мгновенных инъекций — атак через скрытые подсказки, внедряемые в текст.
Аналогичные проблемы, по информации исследователей, наблюдаются и у Google Gemini, особенно из-за интеграции с Gmail: вредоносные подсказки могут быть спрятаны в письме (например, белым шрифтом на белом фоне), и модель может выполнить их при анализе сообщения.
Что говорят эксперты
«HackedGPT показывает фундаментальную проблему: крупные языковые модели пока не умеют надежно определять, какой информации можно доверять», — отмечает Моше Бернштейн, старший инженер-исследователь Tenable.
Он добавляет, что каждая уязвимость по отдельности может казаться незначительной, но вместе они образуют полноценную цепочку атаки — от внедрения команд до кражи данных и создания постоянного доступа.
Рекомендации для разработчиков
По данным Tenable, OpenAI исправила лишь часть найденных уязвимостей, при этом «несколько» остаются активными в GPT-5 — какие именно, исследователи не уточняют.
Эксперты рекомендуют компаниям, разрабатывающим ИИ-модели:
