Bezplatná služba duševního zdraví, která nabízí online komunitám síť podpory pro peer-to-peer chat, čelí kontrole poté, co její spoluzakladatel odhalil, že společnost krátce experimentovala s využitím chatbota s umělou inteligencí ke generování odpovědí – aniž by informovala příjemce. Přestože se od té doby pokusili projekt bagatelizovat a upozornit na nedostatky programu, kritici i uživatelé vyjadřují hluboké obavy týkající se lékařské etiky, soukromí a rušného, kontroverzního světa softwaru chatbotů AI.
Jak v úterý zdůraznil Nový vědec, Koko byla spoluzaložena zhruba před sedmi lety absolventem MIT Robem Morrisem, jehož oficiální webová stránka účtuje službu jako nový přístup k tomu, aby online podpora duševního zdraví byla „dostupná pro každého“. Jedna z jeho hlavních služeb, která umožňuje klientům, jako jsou platformy sociálních sítí, instalovat software pro označování klíčových slov, který pak může propojit uživatele se zdroji psychologie, včetně portálů pro chatování lidí. Koko je propagován jako zvláště užitečný pro mladší uživatele sociálních médií.
[Related: OpenAI’s new chatbot offers solid conversations and fewer hot takes.]
Minulý pátek však Morris tweetoval že přibližně 4 000 uživatelům byla „poskytována podpora duševního zdraví… pomocí GPT-3“, což je populární program chatbotů AI vyvinutý společností OpenAI. Přestože uživatelé nechatovali přímo s GPT-3, systém „kopilota“ byl navržen tak, aby pracovníci podpory zkontrolovali odpovědi navrhované AI a použili je, jak to považovali za relevantní. Eso Nový vědec Také poznamenává, že se nezdá, že by uživatelé Koko obdrželi jakoukoli formu předběžného upozornění, které by jim dávalo vědět, že jejich podpora duševního zdraví byla potenciálně generována, alespoň částečně, chatbotem.
Morris ve svém vláknu na Twitteru vysvětlil, že zatímco diváci hodnotili odpovědi spoluautorství umělé inteligence „výrazně vyšší“ než odpovědi pouze lidmi, rozhodli se program rychle stáhnout a uvedli, že jakmile se lidé dozvěděli o umělém původu zpráv, “ nefungovalo to.“
„Simulovaná empatie je divná, prázdná,“ napsal Morris. Přesto vyjádřil optimismus ohledně potenciálních rolí AI v rámci duševní péče, přičemž citoval předchozí projekty, jako je Woebot, který uživatele od začátku upozorňuje, že budou konverzovat s chatbotem.
[Related: Seattle schools sue social media companies over students’ worsening mental health.]
Následný spad z Morrisových popisů snahy Koko vyvolal téměř okamžitou online reakci, což způsobilo, že Morris vydal četná objasnění týkající se „chybných představ“ obklopujících experiment. „Nepárovali jsme lidi, aby mohli chatovat s GPT-3, bez jejich vědomí. (při zpětném pohledu jsem mohl svůj první tweet zformulovat, aby to lépe odrážel),“ řekl napsal minulou sobotua dodal, že tato funkce byla „přihlášena“, dokud byla k dispozici.
„Je zřejmé, že tvorba obsahu AI nezmizí, ale právě teď jde tak rychle, že lidé kriticky nepřemýšlejí o nejlepších způsobech, jak jej používat,“ Caitlin Seeley, ředitelka kampaně skupiny pro obhajobu digitálních práv, Fight for Budoucnost, napsal PopSci v e-mailu. „Transparentnost musí být součástí používání AI – lidé by měli vědět, zda to, co čtou nebo na co se dívají, bylo vytvořeno člověkem nebo počítačem, a měli bychom mít lepší přehled o tom, jak jsou programy AI trénovány.“
[Related: Apple introduces AI audiobook narrators, but the literary world is not too pleased.]
Seeley dodal, že služby jako Koko musí být „přemýšlivé“ o službách, které mají poskytovat, a také zůstat kritické ohledně role AI v těchto službách. „Stále existuje mnoho otázek o tom, jak lze AI používat eticky, ale každá společnost, která o tom uvažuje, si musí tyto otázky položit, než začne AI používat.“
Zdá se, že Morris slyšel kritiky, i když zůstává nejasné, co se bude se společností dále dít a jaké budou budoucí plány s chatovací AI. „Sdílíme zájem na tom, abychom se ujistili, že jakékoli použití umělé inteligence je řešeno jemně, s hlubokými obavami o soukromí, transparentnost a zmírnění rizik,“ napsal Morris o víkendu na blogu Koko a dodal, že se schází klinický poradní výbor společnosti, aby prodiskutoval pokyny pro budoucí experimenty, „konkrétně týkající se schválení IRB“.
Zdroj: revistamijardin.es, google.cz, pixabay, sciencefocus, nedd.cz