Можно ли доверять ИИ в вопросах здоровья? Эксперты провели масштабное исследование

2 Мин Чтения

Исследование показало, что людям сложно получить полезные советы по здоровью от чат-ботов (фото: Getty Images)

Из-за высоких цен и других факторов все больше людей обращаются к ИИ-чат-ботам вроде ChatGPT за медицинскими советами. Но новое исследование предупреждает: полностью доверять ИИ — рискованно.

Об этом сообщает РБК-Украина (проект Styler) со ссылкой на сайт новостей в сфере технологий TechCrunch.

По словам одного из авторов исследования, директора магистратуры Оксфордского интернет-института Адама Махди, между людьми и ИИ происходит «двусторонний сбой коммуникации».

«Те, кто использовал чат-ботов, не принимали решений лучше, чем те, кто опирался на традиционные методы — например, поиск в интернете или собственный опыт», — заявил Махди.

Что показало исследование

В исследовании участвовали около 1300 жителей Великобритании. Им предлагали смоделированные врачами медицинские сценарии, где нужно было определить возможное заболевание и выбрать, что делать — идти к терапевту, срочно ехать в больницу или просто наблюдать.

Участники использовали несколько ИИ-моделей: ChatGPT (на GPT-4o), Command R+ от Cohere и Llama 3 от Meta. Но вопреки ожиданиям, ИИ чаще мешал правильно определить проблему и занижал серьезность состояний, даже если диагноз был близок к точному.

По словам Махди, пользователи часто упускали важные детали при общении с ИИ, а сами ответы ботов были «трудны для интерпретации». Некоторые рекомендации содержали как полезную, так и откровенно неверную информацию.

«Методы оценки чат-ботов сегодня не учитывают сложности взаимодействия с реальными людьми», — отмечают исследователи.

Что делают техногиганты

Тем не менее, крупнейшие ИТ-компании продолжают активно продвигать ИИ в медицине. Так, Apple разрабатывает цифрового ассистента, который будет советовать по вопросам сна, питания и спорта. Amazon работает над инструментом анализа соцфакторов, влияющих на здоровье, а Microsoft обучает ИИ обрабатывать медицинские обращения от пациентов.

Впрочем, среди врачей и пациентов нет единого мнения, готов ли ИИ к задачам с высокой степенью риска. Американская медицинская ассоциация рекомендует врачам не использовать ChatGPT для клинических решений, а сами разработчики, включая OpenAI, предостерегают от использования ИИ для постановки диагнозов.

Поделиться этой статьей