V posledních několika letech se do oblasti duševního zdraví dostalo 10 000 až 20 000 aplikací, které nabízejí „narušení“ tradiční terapie. S šílenstvím kolem inovací AI, jako je ChatGPT, je na obzoru tvrzení, že chatboti mohou poskytovat péči o duševní zdraví.
Čísla vysvětlují proč: Pandemický stres vedl k tomu, že další miliony Američanů vyhledaly léčbu. Ve Spojených státech je přitom dlouhodobě nedostatek odborníků na duševní zdraví; více než polovina všech krajů postrádá psychiatry. Vzhledem k mandátu zákona o cenově dostupné péči, že pojišťovny nabízejí rovnocenné pokrytí duševního a fyzického zdraví, existuje propast mezi poptávkou a nabídkou.
Pro podnikatele to představuje tržní bonanzu. Na březnové konferenci South by Southwest, kde začínající zdravotnické firmy vystavovaly své produkty, panovalo téměř náboženské přesvědčení, že umělá inteligence dokáže přebudovat zdravotní péči a nabízí aplikace a stroje, které dokážou diagnostikovat a léčit všechny druhy nemocí a nahradit lékaře a sestry.
Bohužel v oblasti duševního zdraví chybí důkazy o účinnosti. Jen málo z mnoha aplikací na trhu má nezávislé výsledky výzkumu, které ukazují, že pomáhají; většina z nich nebyla vůbec kontrolována FDA. Ačkoli jsou prodávány k léčbě stavů, jako je úzkost, porucha pozornosti/hyperaktivita a deprese, nebo k předvídání sebevražedných tendencí, mnozí varují uživatele (malým písmem), že „nejsou určeny k tomu, aby byly lékařské, behaviorální nebo jiné zdravotnické služby“ nebo „není produkt schválený FDA“.
Existují dobré důvody, proč být tváří v tvář tomuto juggernaut marketingu obezřetní.
Joseph Weizenbaum, profesor na Massachusetts Institute of Technology a považovaný za jednoho z otců umělé inteligence, před desítkami let předpověděl, že z umělé inteligence nikdy nebude dobrý terapeut, i když by to tak mohlo znít. Jeho původní program umělé inteligence, vytvořený v 60. letech, byl ve skutečnosti psychoterapeut jménem ELIZA, který používal rozpoznávání slov a vzorů v kombinaci s programováním přirozeného jazyka, aby zněl jako terapeut:
Žena: No, můj přítel mě donutil jíst tady.
ELIZA: Tvůj přítel tě donutil jít sem?
Žena: Říká, že jsem většinu času v depresi.
ELIZA: Je mi líto, že jste v depresi.
Žena: To je pravda. Jsem nešťastný.
ELIZA: Myslíte si, že příchod sem vám pomůže nebýt nešťastný?
Přestože byl ELIZA „úspěch“ oslavován jako triumf umělé inteligence, vyděsil Weizenbauma, se kterým jsem kdysi dělal rozhovor. Řekl, že studenti budou s přístrojem komunikovat, jako by Eliza byla skutečným terapeutem, když to, co vytvořil, byl „párty trik,“ řekl.
Předvídal jsem vývoj mnohem sofistikovanějších programů, jako je ChatGPT. Ale „zkušenosti, které může počítač za takových okolností získat, nejsou lidské zkušenosti,“ řekl mi. „Počítač například nezažije osamělost v tom smyslu, jak tomu rozumíme.“
Totéž platí pro úzkost nebo extázi, emoce tak neurologicky složité, že vědci nebyli schopni přesně určit jejich nervový původ. Může chatbot dosáhnout přenosu, empatického toku mezi pacientem a lékařem, který je ústředním bodem mnoha typů terapie?
„Základním principem medicíny je, že jde o vztah mezi člověkem a člověkem – a umělá inteligence nemůže milovat,“ řekl Bon Ku, ředitel Health Design Lab na Thomas Jefferson University a průkopník v oblasti medicínských inovací. „Mám lidského terapeuta a toho nikdy nenahradí AI.“
Ku řekl, že by rád viděl, aby se umělá inteligence používala místo toho ke snížení úkolů praktikujících, jako je vedení záznamů a zadávání dat, aby se „uvolnilo více času lidem na připojení“.
Zatímco některé aplikace pro duševní zdraví se mohou nakonec ukázat jako užitečné, existují důkazy, že některé mohou škodit. Jeden výzkumník poznamenal, že někteří uživatelé těmto aplikacím vyčítali jejich „skriptovanou povahu a nedostatečnou přizpůsobivost nad rámec učebnicových případů mírné úzkosti a deprese“.
Pro pojišťovny může být lákavé nabízet aplikace a chatboty, aby splnili požadavek parity duševního zdraví. Koneckonců, bylo by to levné a jednoduché řešení ve srovnání s obtížností nabídnout panel lidských terapeutů, zejména proto, že mnozí neberou žádné pojištění, protože považují platby pojistitelů za příliš nízké.
Ministerstvo práce, když vidělo, jak na trh zasáhla záplava umělé inteligence, minulý rok oznámilo, že zvyšuje úsilí o zajištění lepšího souladu pojistitelů s požadavkem na paritu duševního zdraví.
FDA podobně koncem loňského roku uvedl, že „má v úmyslu uplatnit vlastní uvážení“ u řady aplikací pro duševní zdraví, které bude prověřovat jako zdravotnické prostředky. Zatím nebyl schválen ani jeden. A jen velmi málo z nich získalo průlomové označení zařízení agentury, které zrychluje recenze a studie o zařízeních, která vykazují potenciál.
Tyto aplikace většinou nabízejí to, co terapeuti nazývají strukturovanou terapií – ve které mají pacienti specifické problémy a aplikace může reagovat přístupem podobným sešitu. Woebot například kombinuje cvičení pro všímavost a sebeobsluhu (s odpověďmi napsanými týmy terapeutů) pro poporodní depresi. Wysa, další aplikace, která získala označení průlomového zařízení, poskytuje kognitivně behaviorální terapii úzkosti, deprese a chronické bolesti.
Ale shromažďování spolehlivých vědeckých údajů o tom, jak dobře fungují léčby založené na aplikacích, bude nějakou dobu trvat. „Problém je v tom, že nyní existuje jen velmi málo důkazů, aby agentura mohla dospět k nějakým závěrům,“ řekl Kedar Mate, šéf bostonského Institutu pro zlepšení zdravotní péče.
Dokud nebudeme mít tento výzkum, nevíme, zda je péče o duševní zdraví založená na aplikacích lepší než Weizenbaumova ELIZA. Umělá inteligence se může s přibývajícími roky určitě zlepšovat, ale v tuto chvíli je žalostně předčasné, aby pojišťovny tvrdily, že poskytnutí přístupu k aplikaci je něco blízkého splnění požadavku na paritu duševního zdraví.
Zdroj: revistamijardin.es, google.cz, pixabay, sciencefocus, nedd.cz