В последние годы киберугрозы ИИ переходят из фантастики в рутину. Раньше взлом совершали программисты. Теперь атакует человек, который работает с психологией и алгоритмами.
Как пишет РБК-Украина, об этом рассказал эксперт в сфере организации информационной безопасности Ярослав Гордийчук.
Эксперт приводит данные со Всемирного экономического форума, которые показывают рост случаев подмены лица через дипфейк-инструменты на 704%.
«Сегодня, анализируя тренды, я вижу «эпоху нулевого доверия», где любую цифровую личность можно сгенерировать за минуты», — отмечает он.
Эволюция угроз: как AI изменяет методы атаки
Полиморфные AI-атаки стали новым стандартом. Алгоритмы переписывают вредоносный код в реальном времени, обходя антивирусы. Сигнатура вируса меняется каждые несколько секунд. Это похоже на хамелеона, который постоянно адаптирует цвет, рассказал Ярослав Гордийчук.
Другое направление развития — автоматизированный поиск уязвимостей. AI-боты действуют как нескончаемые сканеры, проверяющие периметр компании 24/7. Выявить «открытое окно» проще, чем когда-либо. Алгоритм находит лазейку в защите быстрее админов. Эксперт упоминает публикацию Forbes, в которой приводится пример британского киберпреступника, известного как GTG-5004, который так использовал Claude.
Социальная инженерия 2.0: видеодипфейки и «фейковые сотрудники»
Современная социальная инженерия 2.0 не пытается вынудить человека нажать на ссылку. Это полноценная симуляция личности.
«Алгоритмы создают убедительные дипфейки в бизнесе, где, казалось бы, «начальник» просит срочно согласовать платеж. Во время звонков мошенники используют клонирование голоса (vishing), моделируя практически идеальную копию тембра», — объясняет Ярослав Гордийчук.
По словам эксперта, еще один тип атаки — видеодипфейки, генерируемые через Face Swap технологии. У всех на слуху примеры из реальной жизни, когда северокорейские хакеры проходили собеседования к американским и европейским IT-компаниям, используя цифровые маски. На экране — человек, который улыбается, кивает, отвечает на вопросы. Но это лишь голограмма, созданная в реальном времени. После найма фейковые сотрудники получали доступ к репозиториям и внедряли скрытые бэкдоры.
Гиперперсонализация фишинга
ChatGPT позволил мошенникам писать письма без ошибок, адаптируя стиль под человека. Текст выглядит максимально натурально, потому что учитывается способ общения в соцсетях. Это уже не массовая рассылка, а «точечный удар» охоты на конкретное лицо.
Угроза для государственных структур и дезинформация
На макроуровне AI способен ускорить информационный хаос. Эксперт отметил, что это проявляется в:
Как защититься: клин клином выбивают
Защита от AI-хакеров возможна только через контратаку технологиями. EDR-системы уже работают по поведенческому анализу, отслеживая подозрительные действия, а не файлы. В работе с персоналом важно использовать личные собеседования или инструменты для выявления дипфейков в реальном времени, акцентирует Гордейчук.
«Построение архитектуры Zero Trust помогает минимизировать риски. «Никому не доверяй» и ограничивай доступ сотрудников к критически нужному уровню. Это важно, учитывая инсайдерские угрозы, которые выросли вместе с новыми возможностями маскировки», — объясняет он.
Как отмечает эксперт, мы не можем остановить развитие AI, но должны адаптировать правила и изменить подход. Пассивные методы давно устарели. Требуется активный мониторинг, проверка личностей и постоянная верификация происходящего на экране.
«Реальность больше не гарантирует правды. Ее приходится подтверждать», — подытожил Ярослав Гордийчук.
