ИИ на службе хакеров. Гонки вооружений выходят на новый уровень: как защититься

3 Мин Чтения

В последние годы киберугрозы ИИ переходят из фантастики в рутину. Раньше взлом совершали программисты. Теперь атакует человек, который работает с психологией и алгоритмами.

Как пишет РБК-Украина, об этом рассказал эксперт в сфере организации информационной безопасности Ярослав Гордийчук.

Эксперт приводит данные со Всемирного экономического форума, которые показывают рост случаев подмены лица через дипфейк-инструменты на 704%.

«Сегодня, анализируя тренды, я вижу «эпоху нулевого доверия», где любую цифровую личность можно сгенерировать за минуты», — отмечает он.

Эволюция угроз: как AI изменяет методы атаки

Полиморфные AI-атаки стали новым стандартом. Алгоритмы переписывают вредоносный код в реальном времени, обходя антивирусы. Сигнатура вируса меняется каждые несколько секунд. Это похоже на хамелеона, который постоянно адаптирует цвет, рассказал Ярослав Гордийчук.

Другое направление развития — автоматизированный поиск уязвимостей. AI-боты действуют как нескончаемые сканеры, проверяющие периметр компании 24/7. Выявить «открытое окно» проще, чем когда-либо. Алгоритм находит лазейку в защите быстрее админов. Эксперт упоминает публикацию Forbes, в которой приводится пример британского киберпреступника, известного как GTG-5004, который так использовал Claude.

Социальная инженерия 2.0: видеодипфейки и «фейковые сотрудники»

Современная социальная инженерия 2.0 не пытается вынудить человека нажать на ссылку. Это полноценная симуляция личности.

«Алгоритмы создают убедительные дипфейки в бизнесе, где, казалось бы, «начальник» просит срочно согласовать платеж. Во время звонков мошенники используют клонирование голоса (vishing), моделируя практически идеальную копию тембра», — объясняет Ярослав Гордийчук.

По словам эксперта, еще один тип атаки — видеодипфейки, генерируемые через Face Swap технологии. У всех на слуху примеры из реальной жизни, когда северокорейские хакеры проходили собеседования к американским и европейским IT-компаниям, используя цифровые маски. На экране — человек, который улыбается, кивает, отвечает на вопросы. Но это лишь голограмма, созданная в реальном времени. После найма фейковые сотрудники получали доступ к репозиториям и внедряли скрытые бэкдоры.

Гиперперсонализация фишинга

ChatGPT позволил мошенникам писать письма без ошибок, адаптируя стиль под человека. Текст выглядит максимально натурально, потому что учитывается способ общения в соцсетях. Это уже не массовая рассылка, а «точечный удар» охоты на конкретное лицо.

Угроза для государственных структур и дезинформация

На макроуровне AI способен ускорить информационный хаос. Эксперт отметил, что это проявляется в:

Как защититься: клин клином выбивают

Защита от AI-хакеров возможна только через контратаку технологиями. EDR-системы уже работают по поведенческому анализу, отслеживая подозрительные действия, а не файлы. В работе с персоналом важно использовать личные собеседования или инструменты для выявления дипфейков в реальном времени, акцентирует Гордейчук.

«Построение архитектуры Zero Trust помогает минимизировать риски. «Никому не доверяй» и ограничивай доступ сотрудников к критически нужному уровню. Это важно, учитывая инсайдерские угрозы, которые выросли вместе с новыми возможностями маскировки», — объясняет он.

Как отмечает эксперт, мы не можем остановить развитие AI, но должны адаптировать правила и изменить подход. Пассивные методы давно устарели. Требуется активный мониторинг, проверка личностей и постоянная верификация происходящего на экране.

«Реальность больше не гарантирует правды. Ее приходится подтверждать», — подытожил Ярослав Гордийчук.

Поделиться этой статьей