ChatGPT po jep terapi. Një revolucion i shëndetit mendor mund të jetë i radhës

ChatGPT po jep terapi. Një revolucion i shëndetit mendor mund të jetë i radhës

10:02, 27/04/2023

Taipei, Tajvan – Duke shtypur "Kam ankth" në ChatGPT, chatbot-i novator i OpenAI-së i fuqizuar nga inteligjenca artificiale fillon të funksionojë pothuajse menjëherë.

"Më vjen keq që dëgjoj se po përjeton ankth," gërvishtet nëpër ekran. “Mund të jetë një përvojë sfiduese, por ka strategji që mund të provoni për të ndihmuar në menaxhimin e simptomave tuaja.”

Më pas vjen një listë e numëruar rekomandimesh: puna për relaksim, fokusimi në gjumë, reduktimi i kafeinës dhe alkoolit, sfidimi i mendimeve negative dhe kërkimi i mbështetjes së miqve dhe familjes.

Megjithëse nuk është këshilla më origjinale, ajo i ngjan asaj që mund të dëgjohet në zyrën e një terapisti ose të lexohet në internet në një artikull në WebMD rreth ankthit – jo më pak sepse ChatGPT fshin përgjigjet e tij nga hapësira e gjerë e internetit.

Vetë ChatGPT paralajmëron se nuk është një zëvendësim për një psikolog apo këshilltar. 

Por kjo nuk i ka ndaluar disa njerëz të përdorin platformën si terapistin e tyre personal. Në postimet në forumet online si Reddit, përdoruesit kanë përshkruar përvojat e tyre duke kërkuar këshilla nga ChatGPT për problemet personale dhe ngjarjet e vështira të jetës si ndarjet.

Disa kanë raportuar përvojën e tyre me chatbot që është po aq i mirë ose më i mirë se terapia tradicionale.

Aftësia mahnitëse e ChatGPT për të imituar bisedën njerëzore ka ngritur pyetje në lidhje me potencialin e AI gjeneruese ose trajtimin e kushteve të shëndetit mendor, veçanërisht në rajone të botës, si Azia, ku shërbimet e shëndetit mendor janë të shtrira dhe të mbuluara me stigmë.

Disa entuziastë të inteligjencës artificiale i shohin chatbot-ët si të kenë potencialin më të madh në trajtimin e kushteve më të lehta, të zakonshme si ankthi dhe depresioni, trajtimi standard i të cilave përfshin një terapist që dëgjon dhe vlerëson një pacient, si dhe ofron hapa praktik për adresimin e problemeve të tij/saj. .

Teorikisht, terapia me AI mund të ofrojë akses më të shpejtë dhe më të lirë në mbështetje sesa shërbimet tradicionale të shëndetit mendor, të cilat vuajnë nga mungesa e stafit, listat e gjata të pritjes dhe kostot e larta, dhe u mundësojnë të sëmurëve të anashkalojnë ndjenjat e gjykimit dhe turpit, veçanërisht në pjesë të botës. ku sëmundjet mendore mbeten tabu.

"Psikoterapia është shumë e shtrenjtë dhe madje edhe në vende si Kanadaja, nga ku jam dhe vende të tjera, është shumë e shtrenjtë, listat e pritjes janë vërtet të gjata," tha për Al Jazeera Ashley Andreou, një studente e mjekësisë e fokusuar në psikiatri në Universitetin Georgetown. .

“Njerëzit nuk kanë akses në diçka që rrit mjekimin dhe është trajtim i bazuar në prova për çështjet e shëndetit mendor, dhe kështu mendoj se ne duhet të rrisim aksesin dhe mendoj se AI gjeneruese me një profesionist të certifikuar shëndetësor do të rrisë efikasitetin. ”

Perspektiva e rritjes së inteligjencës artificiale, apo edhe udhëheqjes së trajtimit të shëndetit mendor, ngre një mori shqetësimesh etike dhe praktike. Këto variojnë nga mënyra se si të mbrohen informacionet personale dhe të dhënat mjekësore, deri te pyetjet nëse një program kompjuterik do të jetë ndonjëherë i aftë për të ndjerë ndjeshmërinë me një pacient ose për të njohur shenjat paralajmëruese të tilla si rreziku i vetëdëmtimit.

Ndërsa teknologjia pas ChatGPT është ende në fillimet e saj, platforma dhe rivalët e saj chatbot përpiqen të përputhen me njerëzit në fusha të caktuara, siç është njohja e pyetjeve të përsëritura dhe mund të prodhojnë përgjigje të paparashikueshme, të pasakta ose shqetësuese në përgjigje të kërkesave të caktuara.

Deri më tani, përdorimi i AI në aplikacione të dedikuara për shëndetin mendor ka qenë i kufizuar në sistemet "të bazuara në rregulla" në aplikacionet e mirëqenies si Wysa, Heyy dhe Woebot.

Ndërsa këto aplikacione imitojnë aspekte të procesit të terapisë, ata përdorin një numër të caktuar kombinimesh pyetje-përgjigje që janë zgjedhur nga një njeri, ndryshe nga ChatGPT dhe platformat e tjera të bazuara në AI gjeneruese, e cila prodhon përgjigje origjinale që mund të jenë praktikisht të padallueshme nga ato njerëzore. të folurit.

Inteligjenca artificiale gjeneruese konsiderohet ende shumë si një “kuti e zezë” – pra aq komplekse sa proceset e saj të vendimmarrjes nuk kuptohen plotësisht nga njerëzit – për t’u përdorur në një mjedis të shëndetit mendor, tha Ramakant Vempati, themeluesi i Wysa me bazë në Indi.

“Është e qartë se ka shumë literaturë rreth asaj se si biseda me AI po lulëzon me lançimin e ChatGPT, e kështu me radhë, por mendoj se është e rëndësishme të theksohet se Wysa është shumë specifike për domenin dhe është ndërtuar me shumë kujdes duke pasur parasysh parmakët e sigurisë klinike.” Vempati tha për Al Jazeera.

“Dhe ne nuk përdorim tekst gjenerues, nuk përdorim modele gjeneruese. Ky është një dialog i ndërtuar, kështu që skripti është i parashkruar dhe i vërtetuar përmes një grupi të dhënash kritike të sigurisë, të cilat ne i kemi testuar për përgjigjet e përdoruesve.”

Veçoria e markës tregtare të Wysa është një pinguin me të cilin përdoruesit mund të bisedojnë, megjithëse janë të kufizuar në një numër të caktuar përgjigjesh me shkrim, ndryshe nga dialogu në formë të lirë të ChatGPT.

Abonentët me pagesë në Wysa gjithashtu drejtohen te një terapist njerëzor nëse pyetjet e tyre përshkallëzohen. Heyy, i zhvilluar në Singapor dhe Woebot, me seli në Shtetet e Bashkuara, ndjekin një model të ngjashëm të bazuar në rregulla dhe mbështeten te terapistë të drejtpërdrejtë dhe një robot chatbot me avatar për t'u angazhuar me përdoruesit përtej ofrimit të burimeve si ditari, teknikat e vëmendjes dhe ushtrimet që fokusohen në problemet e zakonshme si gjumi dhe problemet e marrëdhënieve.

Të tre aplikacionet vijnë nga terapia konjitive e sjelljes, një formë standarde e trajtimit për ankthin dhe depresionin që fokusohet në ndryshimin e mënyrës se si një pacient mendon dhe sillet.

Themeluesja e Woebot, Alison Darcy e përshkroi modelin e aplikacionit si një "pemë vendimesh shumë komplekse".

"Kjo 'formë' bazë e bisedës është modeluar në mënyrën se si klinicistët i qasen problemeve, kështu që ata janë 'sisteme ekspertë' që janë krijuar posaçërisht për të përsëritur se si klinikët mund të lëvizin përmes vendimeve gjatë një ndërveprimi," tha Darcy për Al Jazeera.

Heyy i lejon përdoruesit të angazhohen me një terapist njerëzor përmes një funksioni bisede brenda aplikacionit që ofrohet në një sërë gjuhësh, duke përfshirë anglisht dhe hindisht, si dhe duke ofruar informacione dhe ushtrime për shëndetin mendor.

Themeluesit e Wysa, Heyy dhe Woebot të gjithë theksojnë se ata nuk po përpiqen të zëvendësojnë terapinë e bazuar në njerëz, por të plotësojnë shërbimet tradicionale dhe të ofrojnë një mjet në fazën e hershme në trajtimin e shëndetit mendor.

Shërbimi Shëndetësor Kombëtar i Mbretërisë së Bashkuar, për shembull, rekomandon Wysa-n si një ndalesë për pacientët që presin të vizitojnë një terapist. Ndërsa këto aplikacione të bazuara në rregulla janë të kufizuara në funksionet e tyre, industria e AI mbetet kryesisht e parregulluar pavarësisht shqetësimeve se fusha që po përparon me shpejtësi mund të përbëjë rreziqe serioze për mirëqenien njerëzore.

Shpejtësia e mprehtë e zhvillimit të inteligjencës artificiale bëri që CEO i Tesla, Elon Musk dhe bashkëthemeluesi i Apple, Steve Wozniak muajin e kaluar t'u shtonin emrat e tyre mijëra nënshkruesve të një letre të hapur që kërkonte një pauzë gjashtëmujore në trajnimin e sistemeve të AI më të fuqishme se GPT- 4, vazhdimi i ChatGPT, për t'u dhënë kohë studiuesve për të kuptuar më mirë teknologjinë.

“Sistemet e fuqishme të AI duhet të zhvillohen vetëm pasi të kemi besim se efektet e tyre do të jenë pozitive dhe rreziqet e tyre do të jenë të menaxhueshme”, thuhet në letër.

Në fillim të këtij viti, një burrë belg thuhet se kreu vetëvrasje pasi u inkurajua nga chatbot i AI Chai, ndërsa një kolumnist i New York Times përshkroi se ishte inkurajuar të linte gruan e tij nga chatbot i Microsoft-it Bing.

Rregullimi i inteligjencës artificiale ka qenë i ngadalshëm për të përputhur me shpejtësinë e përparimit të teknologjisë, me Kinën dhe Bashkimin Evropian që kanë ndërmarrë hapat më konkretë drejt futjes së parmakëve mbrojtës.

Administrata e Hapësirës Kibernetike e Kinës në fillim të këtij muaji publikoi projekt-rregullore që synojnë të sigurohet që AI nuk prodhon përmbajtje që mund të minojë autoritetin e Pekinit, ndërkohë që BE po punon për legjislacionin që do ta kategorizonte AI si me rrezik të lartë dhe të ndaluar, të rregulluar ose të parregulluar. SHBA ende nuk ka propozuar legjislacion federal për të rregulluar AI, megjithëse propozimet priten më vonë këtë vit.

Aktualisht, as ChatGPT dhe as aplikacionet e dedikuara të shëndetit mendor si Wysa dhe Heyy, të cilat përgjithësisht konsiderohen shërbime "mirësie", nuk rregullohen nga mbikëqyrësit shëndetësorë si Administrata e Ushqimit dhe Barnave e SHBA-së ose Agjencia Evropiane e Barnave.

Ekziston një kërkim i kufizuar i pavarur nëse AI mund të shkojë ndonjëherë përtej aplikacioneve të bazuara në rregulla aktualisht në treg për të ofruar në mënyrë autonome trajtim të shëndetit mendor që është në të njëjtin nivel me terapinë tradicionale.

Që AI të përputhet me një terapist njerëzor, duhet të jetë në gjendje të rikrijojë fenomenin e transferimit, ku pacienti projekton ndjenjat te terapisti i tij dhe imiton lidhjen midis pacientit dhe terapistit.

"Ne e dimë në literaturën e psikologjisë, se një pjesë e efikasitetit dhe ajo që e bën terapinë të funksionojë, rreth 40 deri në 50 për qind e efektit është nga raporti që keni me terapistin tuaj," Maria Hennessy, një psikologe klinike dhe profesoreshë e asociuar në James. Cook University, tha për Al Jazeera. "Kjo përbën një pjesë të madhe se sa efektive janë terapitë psikologjike."

chatbot-ët aktualë janë të paaftë për këtë lloj ndërveprimi dhe aftësitë e përpunimit të gjuhës natyrore të ChatGPT, megjithëse mbresëlënëse, kanë kufij, tha Hennessy.

"Në fund të ditës, është një program kompjuterik fantastik," tha ajo. "Kjo është gjithçka."

[kibernetike] Administrata e Hapësirës Kibernetike e Kinës në fillim të këtij muaji publikoi projekt-rregulloret për zhvillimin dhe përdorimin e AI [Dosje: Thomas Peter/Reuters]

Amelia Fiske, një studiuese e lartë në Institutin për Historinë dhe Etikën e Mjekësisë të Universitetit Teknik të Mynihut, vendi i AI në trajtimin e shëndetit mendor në të ardhmen mund të mos jetë një/ose situatë – për shembull, teknologjia e ardhshme mund të përdoret së bashku me një terapist njerëzor.

“Një gjë e rëndësishme që duhet mbajtur parasysh është se kur njerëzit flasin për përdorimin e AI në terapi, ekziston ky supozim se gjithçka duket si Wysa ose duket e gjitha si Woebot, dhe nuk ka nevojë”, tha Fiske. Al Jazeera.

Disa ekspertë besojnë se AI mund të gjejë përdorimet e saj më të vlefshme prapa skenave, të tilla si kryerja e kërkimeve ose ndihma e terapistëve njerëzorë për të vlerësuar përparimin e pacientëve të tyre.

“Këto algoritme të mësimit të makinerive janë më të mira se sistemet e rregullave të ekspertëve kur bëhet fjalë për identifikimin e modeleve në të dhëna; është shumë e mirë në bërjen e asociacioneve në të dhëna dhe janë gjithashtu shumë të mira për të bërë parashikime në të dhëna,” tha për Al Jazeera Tania Manríquez Roa, një etike dhe studiuese cilësore në Institutin e Etikës Biomjekësore dhe Historisë së Mjekësisë të Universitetit të Cyrihut.

"Mund të jetë shumë e dobishme në kryerjen e hulumtimeve mbi shëndetin mendor dhe gjithashtu mund të jetë shumë e dobishme për të identifikuar shenjat e hershme të rikthimit si depresioni, për shembull, ose ankthi."

Manríquez Roa tha se ishte skeptike që AI mund të përdoret ndonjëherë si një mjet për trajtimin klinik.

"Këto algoritme dhe inteligjencë artificiale janë shumë premtuese, në një farë mënyre, por unë gjithashtu mendoj se mund të jenë shumë të dëmshme," tha Manríquez Roa.

"Unë mendoj se ne kemi të drejtë të jemi ambivalent në lidhje me algoritmet dhe mësimin e makinerive kur bëhet fjalë për kujdesin ndaj shëndetit mendor, sepse kur flasim për kujdesin ndaj shëndetit mendor, ne po flasim për kujdesin dhe standardet e duhura të kujdesit."

“Kur mendojmë për aplikacionet apo algoritmet… ndonjëherë AI nuk i zgjidh problemet tona dhe mund të krijojë probleme më të mëdha”, shtoi ajo. “Ne duhet të bëjmë një hap prapa për të menduar, 'A na duhen fare algoritme?' dhe nëse kemi nevojë për to, çfarë lloj algoritmesh do të përdorim?”

 

© SYRI.net

Lexo edhe:

Komentet

Shto koment

Denonco