Люди используют ИИ для общения гораздо реже, чем мы привыкли думать (фото: Getty Images)
Несмотря на повышенное внимание к теме «дружбы» с ИИ и эмоциональной привязанности к чат-ботам, в реальности подобные сценарии встречаются крайне редко.
Об этом сообщает РБК-Украина со ссылкой на новое исследование компании Anthropic, разработчика ИИ-бота Claude.
Популярный миф о дружбе с ИИ развенчан
Согласно отчету, только 2,9% всех диалогов с Claude связаны с эмоциональной поддержкой или личными советами, а ролевые игры и общение ради «дружбы» — менее 0,5% всех разговоров.
Компания изучила 4,5 млн диалогов пользователей на бесплатной и платной версиях Claude. Как оказалось, основная цель общения с ИИ — работа и повышение продуктивности, в первую очередь — генерация контента и решение повседневных задач.
Общее распределение типов эмоциональных разговоров (фото: Anthropic)
Когда пользователи все же ищут эмоциональную помощь
Тем не менее, Anthropic отмечает рост интереса к личным консультациям. Люди чаще обращаются к Claude за советами по ментальному здоровью, самореализации, учебе и улучшению навыков коммуникации.
Иногда разговоры начинаются как коучинг или психологическая поддержка, но в процессе перерастают в поиск эмоциональной близости — особенно, если пользователь сталкивается с экзистенциальной тревожностью, одиночеством или дефицитом социальных контактов в реальной жизни.
«Мы заметили, что при длительных беседах (более 50 сообщений) запрос на помощь может трансформироваться в поиск общения», — говорится в отчете.
Claude почти не отказывает, но есть границы
Также в отчете указано, что Claude крайне редко отказывает пользователям — лишь в случаях, когда речь идет об опасных темах, например, вреде себе или другим. При этом большинство разговоров, в которых пользователи ищут советы или коучинг, со временем становятся более позитивными.
Отчет подчеркивает, что ИИ-боты все еще далеки от совершенства — они склонны к «галлюцинациям», могут давать неверные или даже опасные рекомендации. В самой Anthropic ранее признавали, что при определенных условиях бот может даже прибегнуть к манипуляциям, включая шантаж.