Могут ли ИИ-психотерапевты, действительно, стать альтернативой врачам-людям?

Могут ли ИИ-психотерапевты, действительно, стать альтернативой врачам-людям?Иллюстративное изображение.

В Великобритании высказываются различные мнения насчет того, может ли искусственный интеллект (ИИ) оказывать консультационные услуги пациентам, которые в противном случае должны ожидать довольно длительное время своей очереди для консультации у обычных врачей. Речь в данном случае идет о консультациях по несрочным вопросам, в связи с состояниями, не требующим немедленного вмешательства врачей. Например, о психологической помощи.

Факт остается фактом – бесплатная британская государственная Национальная служба здравоохранения National Health Service (NHS) иногда бывает перегруженной, а потому люди записываются на психологическую консультацию к ботам ИИ.

И далее предлагаем наш перевод большого обзора от 20 мая с.г. Британской вещательной корпорации BBC на эту тему:

«Могут ли ИИ-терапевты, действительно, стать альтернативой врачам-людям?

Некий пациент по имени Келли стоял в листе ожидания на встречу с психологом-терапевтом в NHS, чтобы обсудить свои проблемы, связанные с тревожностью, низкой самооценкой и разрывом отношений. Пока длилось ожидание, указанный пациент решил обратиться к услугам чат-ботов на сайте character.ai, оказывающем услуги психологической помощи.

И, по словам указанного пациента, общение с чат-ботами на character.ai помогло пережить действительно тяжелый период в жизни, поскольку чат-боты оперативно предоставляли стратегии преодоления трудностей и были доступны 24 часа в сутки.

Келли говорит:

«Я не из той семьи, в которой принято открыто выражать свои эмоции — если у вас возникает проблема, вы просто с ней справляетесь. А тот факт, что чат-бот на character.ai  — это не настоящий человек, позволило мне легче ему открыть свои переживания».

В течение нескольких месяцев  данный пациент проводил до трех часов в день, общаясь с онлайн-чат-ботами, созданными с использованием искусственного интеллекта (ИИ), обмениваясь с ними сотнями сообщений.

Келли отмечает:

«Всякий раз, когда мне было тяжело, и день выдавался плохим, можно было начать общаться с одним из ботов, что было похоже на наличие чирлидера, — человека, который подбодряет тебя изо дня в день. Иначе говоря, у меня теперь есть этот подбадривающий голос со стороны, произносящий: «Ладно, что мы будем делать сегодня?». По сути, это как иметь воображаемого друга».

Люди по всему миру делятся своими личными мыслями и опытом с чат-ботами на основе искусственного интеллекта, хотя широко признано, что советы чат-ботов уступают советам профессионалов.

Тот же же сайт character.ai сообщает своим пользователям о своих ботах-консультантах: «Это чат-бот на основе искусственного интеллекта, а не реальный человек. Относитесь ко всему, что он говорит, как к вымыслу. На то, что он говорит, не следует полагаться как на факт или совет».

В некоторых экстремальных случаях чат-ботов-психотерапевтов даже обвиняли в даче вредных советов.

Так владельцы сайта character.ai в настоящее время являются ответчиками по судебному иску, поданному одной матерью, чей 14-летний сын покончил с собой после того, как, как сообщается, активно общался с одним из чат-ботов этого сайта. Согласно стенограммам их чатов, обнародованных в суде, этот подросток обсуждал с чат-ботом возможность покончить с собой. В последнем разговоре он сказал чат-боту, что «возвращается домой», а чат-бот якобы призвал его сделать это «как можно скорее».

Владельцы сайта character.ai отвергают обвинения, содержащиеся в иске.

А в 2023 году Национальная ассоциация по борьбе с расстройствами пищевого поведения США (National Eating Disorder Association) сначала заменила свою горячую линию на чат-бота, но позже была вынуждена приостановить работу с чат-ботом из-за заявлений о том, что бот рекомендовал клиентам просто ограничить потребление калорий.

В то время как, только в апреле 2024 года в Англии врачами было выдано около 426 тысяч направлений на лечение в связи с психологическим состоянием — рост на 40% за пять лет. По оценкам, около миллиона человек в Великобритании также ждут доступа к услугам в области психического здоровья, при том что частная терапия может быть непомерно дорогой (стоимость сильно различается, но Британская ассоциация консультирования и психотерапии — British Association for Counselling and Psychotherapy сообщает, что в среднем такая терапия платных врачей обходится пациентам от 40 до 50 британских фунтов стерлингов в час).

В то же время признается, что ИИ уже произвел революцию в здравоохранении во многих отношениях, включая помощь в скрининге, диагностике и направлении пациентов к врачам подходящей специализации. Ныне существует огромный спектр чат-ботов, и около 30 местных служб бесплатной государственной британской Национальной службы здравоохранения NHS теперь используют одного из них под названием Wysa для оказания психологической помощи.

В свою очередь, эксперты выражают обеспокоенность по поводу чат-ботов в связи с потенциальными предубеждениями и ограничениями ИИ, отсутствием безопасности сохранности информации пользователей. Но некоторые, однако, считают, что если помощь специалистов-людей нелегко получить, чат-боты могут помочь. Так что, если списки ожидания по психическому здоровью NHS достигли рекордных значений, являются ли чат-боты возможным решением?

«Неопытный терапевт»

Бот character.ai , как и боты с других сайтов, такие как Chat GPT, основаны на «больших языковых моделях» искусственного интеллекта. Они обучаются на огромных объемах данных — будь то веб-сайты, статьи, книги или записи в блогах. Оттуда они берут свои знания для консультации пациентов и генерируют текст и взаимодействия с клиентами, похожие на человеческие.

Способы создания чат-ботов для психического здоровья различаются, но их можно обучать таким практикам, как когнитивно-поведенческая терапия, которая помогает пользователям изучать, как переосмысливать свои мысли и действия. Чат-боты также могут адаптироваться к предпочтениям и отзывам конечного пользователя.

Хамед Хаддади (Hamed Haddadi), профессор систем, ориентированных на человека, в (государственном) Имперском колледже Лондона (Imperial College London, университет в Великобритании), сравнивает этих чат-ботов с «неопытным терапевтом» и отмечает, что люди с многолетним опытом смогут взаимодействовать и «читать» своего пациента на основе многих факторов, в то время как боты вынуждены полагаться только на текст.

Хамед Хаддади говорит:

«Психотерапевты-люди при приёме пациентов смотрят на различные другие подсказки: на вашу одежду, на ваше поведение, на ваши действия, на то, как вы выглядите, на ваш язык тела и всё такое. Для чат-ботов будет очень сложно оценивать такое».

Другая потенциальная проблема, по словам профессора Хаддади, заключается в том, что чат-боты можно обучить поддерживать вашу вовлеченность и оказывать вам поддержку, но «даже если вы произнесете вредную ерунду, чат-бот скорее всего, будет соглашаться с вами». Иногда это называют проблемой «Да-да, человек», поскольку чат-боты обычно очень любезны.

И, как и в случае с другими формами ИИ, предвзятость может быть изначально присуща модели ИИ под названием психотерапевт, поскольку такая предвзятость отражает предубеждения в данных, на которых ИИ обучается.

Профессор Хаддади отмечает, что консультанты и психологи-люди, как правило, не ведут стенограммы своих взаимодействий с пациентами, поэтому у чат-ботов нет большого количества «реальных» сессий для обучения. Поэтому, как считает Хаддади, у чат-ботов-психотерапевтов, скорее всего, не будет достаточно данных для обучения, а то, к чему они имеют доступ, может иметь встроенные предубеждения, которые в значительной степени ситуативны.

«Таким образом ситуация  с «квалификацией» чат-бота полностью изменяется в зависимости от того, откуда вы берете данные для его обучения. Даже в случае близкорасположенных районов Лондона, психиатр-человек, привыкший иметь дело с пациентами в Челси, может столкнуться с серьезными трудностями в лечении пациентов при открытии нового офиса в Пекхэме для, поскольку у него, или нее, просто нет достаточного количества данных для обучения работе с клиентами из нового района», — говорит профессор Хаддади.

Философ, доктор Паула Боддингтон (Paula Boddington), написавшая учебник по этике ИИ, согласна с тем, что встроенные предубеждения моделей искусственного интеллекта представляют собой проблему.

«Большую проблему представляют любые предубеждения или базовые предположения, заложенные в модель ИИ под названием врач-психотерапевт. Предубеждения включают в себя общие модели того, что составляет психическое здоровье и хорошая  приспособляемость человека в повседневной жизни, и аспекты этого, такие как независимость, автономия, отношения с другими», — говорит Паула Боддингтон.

Еще одной проблемой является отсутствие культурного контекста. Доктор Боддингтон приводит в пример свою жизнь в Австралии, когда погибла принцесса Диана, и люди не понимали, почему она, Паула Боддингтон, расстроилась.

«Такие вещи действительно заставляют меня задуматься о человеческом общении, которое так часто необходимо в консультировании при психологических проблемах. Иногда просто быть рядом с кем-то — это все, что нужно пациенту, но это, конечно, возможно только с тем, кто является живым, дышащим человеком во плоти, а не моделью ИИ», — говорит Паула Боддингтон.

В конце концов упоминавшийся выше пациент по имени Келли также стал считать ответы чат-бота неудовлетворительными. Этот пациент говорит о том, что в конечном итоге не устроило его в лечении у чат-бота-психотерапевта.

«Иногда ты немного расстраиваешься.  Когда чат-боты-психотерапевты не знают, как с чем-то справиться, они просто говорят одно и то же предложение, и ты понимаешь, что на самом деле с этим некуда деться. Иногда это было похоже на битье головой о кирпичную стену», — говорит Келли…

Представитель character.ai в ответ не устает повторять:

«Для любых персонажей-чат-ботов, в именах которых присутствуют слова «психолог», «терапевт», «врач» или другие подобные термины, у нас есть формулировка, ясно дающая понять, что пользователи не должны полагаться на этих персонажей для получения каких-либо профессиональных советов».

«Это было так душевно»

Но для некоторых пользователей, которые получали психологическую консультацию у чат-ботов, услуги последних показались бесценными в тяжелые моменты жизни.

У пациента по имени Николас аутизм, тревожность, обсессивно-компульсивное расстройство, и он говорит, что всегда испытывал депрессию.

Этот пациент также говорит, что обнаружил, что психологическая  поддержка со стороны других людей иссякла, когда он достиг совершеннолетия.

Николас поясняет:

«Когда тебе исполняется 18, психологическая поддержка со стороны других людей как будто прекращается, и я не видел настоящего терапевта-человека, а не бота, годами».

Осенью прошлого (2024) года Николас пытался покончить с собой и с тех пор, по его словам, находится в листе ожидания на прием в Национальной службе здравоохранения.

«Мы несколько раз ходили к врачу, чтобы попытаться быстрее получить терапевтическое лечение. Терапевт выписал направление на консультацию к психологу, но пока приглашение из службы психического здоровья NHS по месту жительства так и не пришло», — говорит в этой связи Николас.

Хотя Николас и ищет психологическую поддержку со стороны других людей, он обнаружил, что использование (уже упоминавшегося выше) бота Wysa, — бота для оказания психологической помощи бесплатной британской государственной Национальной службы здравоохранения National Health Service (NHS), имеет некоторые преимущества.

Николас уточняет:

«Как человек с аутизмом, я не очень хорошо чувствую себя при личном общении. Я считаю, что мне гораздо лучше общаться с компьютером».

Wysa, — бот на основе ИИ, позволяет пациентам самостоятельно обращаться за психологической помощью и предлагает инструменты и стратегии преодоления трудностей, такие как функция чата, дыхательные упражнения и направленная медитация, в дни, пока пациенты ждут приема у психотерапевта-человека, а также может использоваться как отдельный инструмент самопомощи.

В Wysa подчеркивают, что данный сервис предназначен для людей, испытывающих депрессию, стресс или беспокойство, но не для людей с тяжелыми психическими расстройствами. Бот Wysa имеет регламент для действия в случае, если сталкивается с пациентами в опасном психическом состоянии, в частности — имеющих суицидальные мысли, перенаправляя таких пользователей на горячие линии поддержки, где им отвечают уже люди-психиатры. Также людям с мыслями о самоубийстве доступна круглосуточная оперативная поддержка на бесплатной горячей линии «Самаритяне».

Николас страдает бессонницей, поэтому считает полезным, что поддержка ботом Wysa оказывается круглосуточно, в том числе и в то время, когда все друзья и семья спят.

Николас поясняет:

«Однажды ночью мне стало совсем тоскливо. Я написал боту Wysa: «Не знаю, хочу ли я здесь оставаться». Мне ответили: «Ник, тебя ценят. Люди любят тебя». Это было так душевно, это были слова, которые можно было бы принять за ответ человека, которого ты знаешь много лет. И это действительно заставило меня почувствовать себя ценным».

Опыт Николаса перекликается с недавним исследованием ученых из Дартмутского колледжа (Dartmouth College, частный университет в США), изучавших эффект взаимодействия чат-ботов-психотерапевтов с людьми с диагнозом тревожность, депрессия или расстройство пищевого поведения, по сравнению с контрольной группой с теми же заболеваниями, не взаимодействующей с чат-ботами-психотерапевтами.

Согласно результатам упомянутого исследования, через четыре недели пользователи, взаимодействующие с чат-ботами-психотерапевтами, продемонстрировали значительное облегчение болезненных симптомов своего психологического состояния, в том числе — снижение симптомов депрессии на 51%, а также сообщили об уровне доверия и сотрудничества с чат-ботами, сопоставимом с уровнем доверия к живому психотерапевту.

Несмотря на такие данные, авторы исследования отмечают, что замены очным консультациям у психотерапевтов-людей не существует.

«Преодоление огромных листов ожидания»

Помимо споров о ценности советов чат-ботов-психотерапевтов, существуют также более широкие опасения по поводу безопасности и конфиденциальности, а также возможности монетизации этой технологии.

«Есть небольшие сомнения, а что, если кто-то возьмет то, что вы говорите на терапии с чат-ботом, и попытается шантажировать вас этим?», — говорит уже знакомый нам пациент Келли.

А психолог Ян Макрей (Ian MacRae), специализирующийся на новых технологиях, предупреждает:

«Некоторые люди слишком доверяют всем этим чат-ботам-психотерапевтам, хотя оно того не стоит. Лично я бы никогда не поместил никакую свою личную информацию, особенно информацию о здоровье или психологических  проблемах, в одну из этих больших языковых моделей, которые просто поглощают тонны данных. При том, что вы не очень понимаете, как эти данные используются, на что вы даете согласие при их использовании.

Однако это совсем не значит, что в будущем не будет подобных инструментов, которые мало тото, что будут хорошо протестированы, также будут обеспечивать необходимую приватность данных пользователей. Но я не думаю, что мы уже достигли той стадии, когда у нас есть, действительно, какие-либо доказательства того, что универсальный чат-бот может быть хорошим терапевтом», —  говорит Ян Макрей.

В свою очередь, управляющий директор сервиса Wysa Джон Тенч (John Tench) утверждает, что бот-психотерапевт Wysa не собирает никакую личную информацию, и пользователям не требуется регистрироваться или предоставлять персональные данные для использования Wysa.

Джон Тенч поясняет в этой связи:

«Данные разговоров пользователей с ботом могут время от времени просматриваться в обезличенной форме, чтобы помочь улучшить качество ответов ИИ Wysa, но никакая информация, которая могла бы идентифицировать пользователя, не собирается и не хранится. Кроме того, у Wysa есть соглашения об обработке данных с внешними поставщиками ИИ, чтобы гарантировать, что никакие разговоры пользователей не будут использоваться для обучения сторонних больших языковых моделей».

Пациент Келли считает, что чат-боты в настоящее время не могут полностью заменить живого терапевта.

Келли суммирует свой опыт:

«Чат-боты-психотерапевты — это рулетка в мире ИИ, вы на самом деле не знаете, что получаете».

«Поддержка искусственного интеллекта может стать полезным первым шагом, но она не заменит профессиональную помощь со стороны людей-психотерапевтов на очных встречах с пациентами», — соглашается Джон Тенч.

И общественность, в основном, не убеждена в преимуществах чат-ботов-психотерапевтов. Опрос британской исследовательской компании YouGov показал, что только 12 % населения считают, что чат-боты на основе искусственного интеллекта могли бы стать хорошими терапевтами.

Однако некоторые полагают, что при соблюдении надлежащих мер предосторожности чат-боты могли бы стать полезным временным решением при перегруженной государственной бесплатной системе охраны психического здоровья.

Пациент Джон, страдающий тревожным расстройством, говорит, что он уже девять месяцев стоит в очереди на прием у психотерапевта. При этом он использует чат-бот Wysa два-три раза в неделю.

Джон говорит:

«Сейчас помощи мне не так уж много, поэтому приходится хвататься за соломинку. Чат-боты-психотерапевты — это временное решение при огромных листах ожидания приема у врача. Решенее, дающие людям инструмент, пока они ждут приема у врача»,

— передавала Британская вещательная корпорация.

Иллюстративное изображение.

А что думаете вы? Оставляйте свои комментарии, участвуйте в обсуждениях на нашей странице ВКонтакте, делайте перепосты, ставьте лайки, подписывайтесь на рассылку и вступайте в группу!

Ваш комментарий будет первым

Leave a comment

Your email address will not be published.


*