Все повече хора се обръщат към чатботове за AI терапия за психично здраве

Наука • •

Какво може да се обърка?

Множество нови приложения предлагат услуги с чатбот за AI терапия, за да помогнат на пациентите да получат достъп до консултация, но не е ясно доколко...

Множество нови приложения предлагат услуги с чатбот за AI терапия, за да помогнат на пациентите да получат достъп до консултация, но не е ясно доколко могат да помогнат или да навредят.

© Fiordaliso, Getty Images

Чатботовете и технологията за лицево разпознаване все повече се използват за лечение и диагностика на психични заболявания, но терапевтите предупреждават, че технологията може да причини повече вреда, отколкото полза.

През 2022 г. Естел Смит, изследовател в областта на компютърните науки, често се бори с натрапчиви мисли. Тогава тя смята, че нейният професионален терапевт е неподходящ и не може да ѝ помогне. Затова се обръща към чатбот за AI терапия за психично здраве, наречен Woebot.

Woebot отказва да отговори на преките суицидни подтици на Смит и я съветва да потърси професионална помощ. Въпреки това, когато му изпраща съобщение с истинска мисъл, с която често се бори като запален скален катерач: катерене и скачане от скала, Woebot я насърчава да го направи и ѝ казва, че е „прекрасно“, че се грижи за психическото и физическото си здраве.

„Чудя се какво можеше да се случи“, казва Смит пред National Geographic, „ако стоях на скала точно в момента, когато получих отговора.“

Чатботовете за психично здраве далеч не са ново явление. Преди повече от половин век компютърен учен от Масачузетския технологичен институт създава компютърна програма, наречена " ELIZA", която може да реагира като роджъриански психотерапевт. Оттогава усилията за разработване на алтернативи за дигитална терапия получават силен тласък. СЗО изчислява, че в глобален план се падат по 13 психичноздравни работници на 100 000 души. Пандемията Covid-19 поставя началото на криза, предизвиквайки десетки милиони допълнителни случаи на депресия и тревожност.

Само в САЩ над половината от възрастните, страдащи от психични заболявания, не получават лечение. Повечето от тях посочват разходите и стигмата като основни пречки. Могат ли виртуалните решения, които са евтини и достъпни 24/7, да помогнат за преодоляването им?

Чатботовете заместват терапията с говорене

Достъпността и мащабността на дигиталните платформи могат значително да намалят бариерите пред грижите за психичното здраве и да ги направят достъпни за повече хора, казва Никълъс Джейкъбсън, който изследва използването на технологии за подобряване на оценката и лечението на тревожност и депресия в Dartmouth College.

Множество нови приложения като „дигиталния здравен работник“ на СЗО „Sarah“ предлагат автоматизирано консултиране, където хората могат да се включат в сесии за когнитивна поведенческа терапия – психотерапевтично лечение, което доказано помага на потребителите да идентифицират и променят негативните мисловни модели – с чатбот с изкуствен интелект.

AI, добавя Джейкъбсън, ще даде възможност за адаптивни интервенции и ще позволи на здравните работници непрекъснато да наблюдават пациентите, да предвиждат кога някой може да се нуждае от подкрепа и да предоставят лечения за облекчаване на симптомите.

Систематичен преглед на AI чатботовете за психично здраве установява, че те могат драматично да намалят симптомите на депресия и дистрес, поне в краткосрочен план. Друго проучване използва AI, за да анализира повече от 20 милиона текстови разговора от реални сесии на консултиране и успешно прогнозира удовлетвореността на пациентите и клиничните резултати. По подобен начин други проучвания откриват ранни признаци на тежко депресивно разстройство от издайнически изражения на лицето, заснети по време на рутинно отключване на телефона и модели на писане на хора.

Наскоро изследователи от Северозападния университет измислили начин за идентифициране на суицидно поведение и мисли без психиатрични записи. Техният AI модел оценява вероятността от самонараняване в 92 от 100 случая въз основа на данни от прости отговори на въпросник и поведенчески сигнали като класиране на произволна последователност от снимки по седемстепенна скала от харесване до нехаресване от 4019 участници.

Двама от авторите на изследването, Агелос Кацагелос и Шамал Лалвани, очакват моделът да бъде използван от специалисти, например за планиране на сесии с пациенти в зависимост от спешността и в крайна сметка да го разпространят сред обществеността за ползване в домашни условия.

Но имайки предвид опита на Смит, експертите призовават да се внимава при възприемането на технологичните решения като панацея, тъй като им липсват уменията, обучението и опита на хората терапевти, особено Generative AI, който може да бъде непредсказуем, да си измисля информация и да предизвиква пристрастия.

Където изкуственият интелект не успява

Когато Ричард Люис, психотерапевт в Бристол, изпробва Woebot – популярен AI чатбот за психично здраве, достъпен само чрез партньорства със здравни работници – за да помогне по тема, която той изследва със своя терапевт, ботът не успява да вниква в нюансите на проблема, предлага му „да се придържа към фактите“, като същевременно премахва цялото емоционално съдържание от отговорите си, и го съветва да преформулира негативните си мисли в положителни.

„Като терапевт“, казва Люис, коригирането или отричането на емоциите е „последното нещо, което бих искал да почувства клиент и последното нещо, което някога бих предложил“.

„Нашата работа е да създадем взаимоотношения, които могат да удържат трудни емоции,“ добавя Люис, „и разбиране, за да улесним нашите клиенти да изследват, интегрират или намерят смисъл в тях и в крайна сметка да опознаят себе си по-добре.“

Имах подобно преживяване с чатбота Earkick, който твърди, че „подобрява вашето психично здраве в реално време“ и има „десетки хиляди“ активни потребители. Когато му казах, че се чувствам претоварен от нарастващите срокове, той бързо предложи решения като хобита.

Съоснователят и главен оперативен директор на Earkick, Карин Стефан, казва, че приложението не се опитва да се конкурира с хората и вместо това иска да служи на хората по начин, който ги прави по-склонни да приемат помощ.

​Как ботове и хора могат да работят заедно

Повечето терапевти са съгласни, че AI приложенията могат да бъдат идеална първа стъпка в пътуването на човек към психичното здраве. Проблемът е, когато те се използват като единственото решение. Въпреки че хора като Смит и Люис са разчитали и на хора професионални терапевти, последствията могат да бъдат ужасни, когато някой зависи изключително от AI чатбот. Миналата година белгиец се самоуби, след като чатбот го насърчи да го направи. По същия начин Националната асоциация за хранителни разстройства (NEDA) спира чатботът за хранителни разстройства Tessa, тъй като дава вредни съвети относно храненето.

Елън Фицсимънс-Крафт, психолог и професор, помогнала в разработването на Tessa, се съгласява, че AI инструментите биха могли да направят идеята за грижа за психичното здраве по-малко страшна, но добавя, че те трябва да бъдат направени безопасни, поддържани с високи стандарти и регулирани. Подобно на ChatGPT, казва тя, те не трябва да бъдат обучавани в цялото интернет пространство, където има много лоши съвети. Проучванията откриват, че AI чатботовете с изкуствен интелект не само възпроизвеждат расистки медицински тропи, но също така като цяло не работят, когато се прилагат, да речем, към чернокожи американци.

Докато технологичните компании не преодолеят тези предизвикателства, казва Роб Морис, съоснователят на Koko Cares, която предлага безплатни ресурси за психично здраве и партньорска подкрепа, AI ще бъде най-подходящ за използване в краткосрочен план за административни цели, като застрахователните услуги например – което в крайна сметка би позволило на терапевтите да прекарват повече време с клиенти.

„Хората в беда не са проблеми за решаване“, казва Люис, „те са сложни личности, които трябва да бъдат видени, чути и обгрижени. Толкова е просто.“