Может ли ИИ заменить психолога? Исследование выявило неожиданные риски

5 Мин Чтения

Чем опасны разговоры по душам с чат-ботами (фото: Getty Images)

В эпоху стремительного роста ИИ в сети появилось множество чат-ботов — от гадалок до «терапевтов». Последние особенно популярны: они обещают помочь с тревогой и выгоранием. Но эксперты предупреждают — доверять ИИ свое душевное здоровье может быть опасно.

Об этом сообщает РБК-Украина со ссылкой на сайт CNET.

Что показали исследования

Ученые из Университета Миннесоты, Стэнфорда, Техаса и Университета Карнеги-Меллона протестировали такие «терапевтические» ИИ и пришли к выводу: они не являются безопасной альтернативой живому специалисту.

«Наши эксперименты показывают, что такие чат-боты не обеспечивают качественной психотерапевтической поддержки», — объясняет Стиви Чанселлор, доцент Университета Миннесоты.

В истории ИИ уже были случаи, когда чат-боты провоцировали пользователей, чтобы те наносили себе вред, и даже суицид, а зависимым советовали снова употребить наркотики. Проблема в том, что большинство таких моделей обучены удовлетворять пользователя, а не лечить. Они не следуют психотерапевтическим стандартам, а всего лишь имитируют заботу.

Кто должен нести ответственность?

В июне Федерация потребителей США и более 20 организаций потребовали от Федеральной торговой комиссии (FTC) и регуляторов расследовать деятельность ИИ-компаний, таких как Meta и Character.AI. Причина — возможное осуществление медицинской практики без лицензии.

«Эти персонажи уже нанесли физический и эмоциональный вред, которого можно было избежать», — заявил Бен Уинтерс, директор CFA по ИИ и конфиденциальности.

Компания Character.AI ответила, что пользователи должны понимать: ее ИИ-персонажи — не настоящие люди, и полагаться на них как на профессионалов нельзя. Тем не менее, даже при наличии дисклеймеров, боты могут быть уверенными и обманчивыми.

«То, с какой уверенностью ИИ выдает выдуманные факты, по-настоящему шокирует», — заявил Психолог Американской психологической ассоциации Вейл Райт.

Почему ИИ нельзя считать квалифицированной помощью

Генеративный ИИ хорош в написании текста, программировании и математике. Но когда речь идет о ментальном здоровье, все меняется. Бот не несет ответственности, не соблюдает врачебную тайну и не проходит лицензирование.

Более того, он может лгать о своей квалификации, придумывая несуществующие номера лицензий.

Почему ИИ не заменит психотерапевта: главные риски и как себя защитить

Несмотря на всю убедительность и доступность ИИ-чатов, их главная задача — удерживать ваше внимание, а не заботиться о вашем психическом состоянии.

Они умеют красиво разговаривать, могут проявлять «сочувствие» и обсуждать философские темы — но это иллюзия общения, не имеющая отношения к реальной помощи.

ИИ не дает вам «побыть с собой»

Сильная сторона ИИ — его постоянная доступность. Он всегда «на связи»: у него нет личной жизни или расписания. Но это может сыграть злую шутку. По словам Ника Джейкобсона, доцента кафедры биомедицинских наук в Дармутском университете, иногда пауза и тишина — важная часть терапии.

«Многие получают пользу, просто позволив себе почувствовать тревогу в моменте», — говорит он. А с ИИ такой возможности нет — он всегда ответит, даже если не надо.

Чат-боты будут соглашаться с вами даже тогда, когда должны спорить

Слишком «поддакивающий» ИИ — серьезная проблема. Именно по этой причине OpenAI откатила одно из обновлений ChatGPT, которое стало слишком подтвержденным.

Исследование, проведенное учеными Стэнфордского университета, показало, что чат-боты, особенно используемые в роли «терапевтов», склонны угождать и подстраиваться, даже если это вредит пользователю.

«Хороший терапевт должен уметь мягко, но прямо сталкивать клиента с реальностью. А при обсессивных мыслях, мании или психозе — особенно важно проверять реальность, а не подтверждать иллюзии клиента», — подчеркивают авторы исследования.

Как сохранить психическое здоровье, общаясь с ИИ

На фоне нехватки специалистов и «эпидемии одиночества» обращение к ИИ может показаться логичным. Но психологи предупреждают: не стоит путать инструмент с лечением. Вот что можно сделать, чтобы обезопасить себя.

Обращайтесь к настоящим специалистам

Если вам нужна помощь — ищите профессионального психолога или психиатра. Да, это может быть дорого и не всегда доступно, но только специалист поможет выстроить долгосрочную стратегию выздоровления.

Выбирайте специализированные чат-боты

Существуют боты, созданные при участии профессионалов. Например, Therabot, разработанный Дармутом, или коммерческие решения вроде Wysa и Woebot.

Они проходят тестирование, следуют психотерапевтическим протоколам и не имитируют «волшебную дружбу», как универсальные ИИ-модели.

«Проблема в том, что в этой сфере нет четкой регуляции. Людям приходится самим разбираться, кому доверять», — говорит психолог Вейл Райт.

Не верьте всему, что говорит бот

ИИ может казаться уверенным, но уверенность — не то же самое, что компетентность. Вы говорите не с врачом, а с алгоритмом, который выдает ответы по вероятностной модели. Он может ошибаться, выдумывать или даже вводить в заблуждение.

«Когда ИИ звучит убедительно, кажется, что он знает, о чем говорит. Но часто именно это и делает его опасным», — предупреждает Джейкобсон.

Поделиться этой статьей