Чат-боты подключаются к психотерапии

Как работают сервисы помощи на основе ИИ

Чат-боты научились оказывать психологическую помощь. На Западе уже существует несколько популярных сервисов на основе искусственного интеллекта, а один из стартапов в этой сфере недавно привлек больше $200 млн. Сообщается, что пользователи высоко оценивают ответы ботов, но при этом испытывают тревогу, когда узнают, что тексты генерирует искусственный интеллект.

Фото: Shutterstock / Business Wire / AP

Фото: Shutterstock / Business Wire / AP

Подобные инструменты запускают и в России. Гендиректор сервиса Zigmund.Online Даниил Чаус рассказал “Ъ FM”, как они работают: «Задача этого бота сделать психотерапию ближе к человеку, дать представление о том, что это за инструмент. Он доступен бесплатно, анонимно, легко и просто в Telegram.

Бот основан на технологии Chat GPT от OpenAI с учетом нашего опыта о том, каковы границы психотерапии, как себя ведет опытный психолог, как он отражает эмоции, что может рекомендовать в качестве инструментов самопомощи, какие может предлагать упражнения в рамках КПТ. У нас этот бот настроен именно в рамках когнитивно-поведенческого подхода, потому что он алгоритмизируется.

При этом мы не требуем от человека оставлять никаких данных. Единственное, что необходимо обрабатывать, — это текст сообщений. Это происходит анонимно, то есть модель Chat GPT анализирует его с учетом наших настроек и отправляет обратно в бот человеку. Нет необходимости хранить и собирать какие-то данные».

Все подобные сервисы предупреждают, что бот не может заменить настоящего психолога и что в случае серьезных проблем стоит обращаться к специалисту. В то же время Национальная служба здравоохранения Великобритании рекомендовала одно из таких приложений в качестве временной меры для пациентов, которые ждут приема.

И все же на Западе подобные сервисы часто критикуют, в частности, за то, что их эффективность не доказана, и сама технология недостаточно изучена. К ней действительно есть много вопросов с точки зрения безопасности и этики, подчеркивает ассоциированный исследователь Центра международных исследований интеллектуальной собственности в Страсбурге Александр Тюльканов:

«Данные о здоровье, которые мы кому-то доверяем, с точки зрения законодательства являются специальной категорией персональных данных, для нее существуют особые требования, нужно смотреть, с кем мы взаимодействуем.

Если мы пользуемся чат-ботом, важно понимать, кому он принадлежит, кто обрабатывает эту информацию. Есть исследования, что потенциально такие сервисы могут использоваться, в том числе в медицинских целях, но, опять же, если проведена процедура их проверки, подтверждена их эффективность.

У пользователей могут быть самые разные ожидания от этих систем. Главное, чтобы они не были завышены, чтобы люди представляли себе ограничения, которые применимы для таких систем.

При этом большие языковые модели конструктивно устроены таким образом, что гарантировать стабильный качественный результат невозможно. Можно снизить эти риски, но полностью исключить их нельзя. В этом их основное отличие от систем, которые создаются на основе жестких правил и принципов, но при взаимодействии с которыми, может быть, не создается впечатления естественности диалога.

На самом деле не всегда это и нужно. Может быть, достаточно использовать какие-то другие инструменты вроде опросников, интерактивного взаимодействия в программе, но необязательно в диалоговом режиме, чтобы бот изображал из себя человека».

В компании OpenAI, которая разработала ChatGPT, говорят, что ее технология не подходит для лечения заболеваний. В пользовательском соглашении отмечается, что модель не способна предоставлять медицинскую информацию.


Новости в вашем ритме — Telegram-канал "Ъ FM".

Илья Сизов

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...