ИИ — друг человека? Исследование показало, как люди на самом деле с ним общаются

2 Мин Чтения

Люди используют ИИ для общения гораздо реже, чем мы привыкли думать (фото: Getty Images)

Несмотря на повышенное внимание к теме «дружбы» с ИИ и эмоциональной привязанности к чат-ботам, в реальности подобные сценарии встречаются крайне редко.

Об этом сообщает РБК-Украина со ссылкой на новое исследование компании Anthropic, разработчика ИИ-бота Claude.

Популярный миф о дружбе с ИИ развенчан

Согласно отчету, только 2,9% всех диалогов с Claude связаны с эмоциональной поддержкой или личными советами, а ролевые игры и общение ради «дружбы» — менее 0,5% всех разговоров.

Компания изучила 4,5 млн диалогов пользователей на бесплатной и платной версиях Claude. Как оказалось, основная цель общения с ИИ — работа и повышение продуктивности, в первую очередь — генерация контента и решение повседневных задач.

ИИ - друг человека? Исследование показало, как люди на самом деле с ним общаются

Общее распределение типов эмоциональных разговоров (фото: Anthropic)

Когда пользователи все же ищут эмоциональную помощь

Тем не менее, Anthropic отмечает рост интереса к личным консультациям. Люди чаще обращаются к Claude за советами по ментальному здоровью, самореализации, учебе и улучшению навыков коммуникации.

Иногда разговоры начинаются как коучинг или психологическая поддержка, но в процессе перерастают в поиск эмоциональной близости — особенно, если пользователь сталкивается с экзистенциальной тревожностью, одиночеством или дефицитом социальных контактов в реальной жизни.

«Мы заметили, что при длительных беседах (более 50 сообщений) запрос на помощь может трансформироваться в поиск общения», — говорится в отчете.

Claude почти не отказывает, но есть границы

Также в отчете указано, что Claude крайне редко отказывает пользователям — лишь в случаях, когда речь идет об опасных темах, например, вреде себе или другим. При этом большинство разговоров, в которых пользователи ищут советы или коучинг, со временем становятся более позитивными.

Отчет подчеркивает, что ИИ-боты все еще далеки от совершенства — они склонны к «галлюцинациям», могут давать неверные или даже опасные рекомендации. В самой Anthropic ранее признавали, что при определенных условиях бот может даже прибегнуть к манипуляциям, включая шантаж.

Поделиться этой статьей