Egy pszichológusnál etikai szabályok vannak, de a ChatGPT-pszichológusod bármit az arcodba fog tolni – úgy, ahogy neked tetszik

Egy pszichológusnál etikai szabályok vannak, de a ChatGPT-pszichológusod bármit az arcodba fog tolni – úgy, ahogy neked tetszik
Illusztráció: Marjai Petra Lilla / Telex

364

Akarva vagy akaratlanul, közvetlenül vagy áttételesen, de a mesterséges intelligenciával (MI) mára gyakorlatilag mindenki kapcsolatba kerül, aki valamennyire is jelen van az online térben. MI-t használnak egyes fordítóprogramok, a közösségi médiában a kormánypropaganda részéről is nap mint nap találkozhatunk MI-generált tartalmakkal, van nemzeti MI-stratégiánk, de már egy sima Google-keresésnél is a mesterséges intelligencia siet a segítségünkre.

Az MI-csetbot hallatán általában hajlamosak vagyunk a ChatGPT-re gondolni – nem is csoda, hiszen legnépszerűbb csetbotként már több mint 700 millió felhasználónál jár egy, az OpenAI által publikált friss kutatás szerint. Ebből kiderül az is, hogy mostanra a felhasználók többsége (72 százaléka) elsősorban nem munkahelyi feladatokra, hanem magáncélra használja a csetbotot. Itt pedig már nagyon széles a spektrum: van, aki egy utazás megtervezéséhez, van, aki a szerelmi életéhez kér tanácsot.

Sokan már egyenesen barátként tekintenek a csetbotokra, de az is egyre jellemzőbb, hogy pszichológusként használják azokat, mondván: ingyenes és mindig elérhető – arról nem is beszélve, hogy egy idén januárban publikált kutatás szerint a megkérdezettek empatikusabbnak érzékelték a csetbotot, mint egy segítő szakembert. (Itt fontos megjegyezni, hogy ez a megkérdezettek percepciója, a mesterséges intelligencia nem képes érzések és empátia átélésére, csupán egy úgynevezett nyelvi modellként jobban ki tudja fejezni a kommunikációban azt, amit empátiaként érzékelünk.)

Ezekkel az adottságokkal ugyanakkor nem is csoda, hogy egyre gyakrabban merül fel a kérdés: vajon a mesterséges intelligencia helyettesítheti is a pszichológusokat?

ChatGPT = ingyen pszichológus?

A mesterséges intelligencia kontra emberi pszichológus kérdésben az egyik gyakori érv a csetbot mellett, hogy ingyenes, így jóval szélesebb tömegeknek elérhető, mint az alkalmanként akár 20 ezer forintnál kezdődő terápiás ülések. Emellé jön az úgynevezett treatment gap (vagyis ellátási szakadék) is: ez azt a jelenséget takarja, hogy

jóval kevesebb pszichológus áll rendelkezésre, mint ahány embernek szüksége lenne segítségre.

Szlankó Viola pszichológus, az UNICEF Magyarország gyermekvédelmi igazgatója szerint ráadásul a szakemberek nagy része olyan nyelvezetet beszél és olyan kultúrkörből, társadalmi osztályból érkezik, ami a társadalom egészét tekintve egyáltalán nem reprezentatív.

„Egy olyan világban, ahol ilyen kevés és drága a pszichológus, gyakorlatilag szükségszerűen jelent meg az MI ilyesfajta alkalmazása” – mondja Szlankó.

Kiss Lehel pszichológus szerint ugyanakkor azt nem szabad elfelejteni, hogy például a ChatGPT-t kifejlesztő OpenAI egy üzleti vállalkozás, vagyis a profit termelése a célja – az pedig, hogy ingyenes, azt is jelenti, hogy maga a fogyasztó válik termékké, így a szakember szerint csak idő kérdése és megjelennek majd hirdetések is a platformon.

„Amíg egy pszichológusnál etikai szabályok vannak – például, hogy pszichológusként nem értékesítesz egyéb dolgokat, mivel bizalmi kapcsolat van köztünk, addig a ChatGPT-pszichológusod bármit az arcodba fog tolni, azon a nyelvezeten, ami neked tetszik” – teszi hozzá Kiss Lehel. Szerinte sokatmondó az is, ahogy a ChatGPT modelljeit fejlesztik: a GPT-5-ös modellnél például a gyártók már direkt törekedtek arra, hogy a csetbot kevésbé legyen megnyerő, a felhasználó karakteréhez alkalmazkodó – a felhasználók egy része azonban annyira felháborodott ezen, hogy végül újra kicsit kedvesebbre állították a modellt. Nemrég kiderült az is, hogy az OpenAI már a Plus-előfizetőknek is egy alacsonyabb limitet állított be a GPT-4-es verzióra, ami több hazai MI-s Facebook-csoportban is heves felháborodást váltott ki a felhasználók között – olyannyira, hogy egyesek nyílt levelet írtak az OpenAI-nak a korlátozással kapcsolatban.

Nagyobb az óvatosság egy másik emberrel, mint egy csetbottal szemben

A szakember szerint az, hogy ennyien tekintenek pszichológusként vagy barátként a ChatGPT-re, egyrészt abból adódik, hogy mennyire megszokott lett az online, szövegalapú, arc nélküli kommunikáció, egészen a negyvenes korosztályig. A másik fontos eredő a bizalmatlanság: általában sokkal nagyobb az óvatosság egy másik emberrel, mint egy csetbottal szemben, ami ráadásul arra van programozva, hogy nagyon hamar hozzáidomuljon a fogyasztó karakteréhez. Arról nem is beszélve, hogy egy csetbot a pozitív megerősítéseivel és az érzelmeket validáló reakcióival egy olyan ítélkezésmentes környezetet tud kialakítani, amit sokan nem tapasztalnak meg a mindennapokban.

A fentiek mellé jön még az is, hogy míg egy pszichológus heti 50 percet tud szánni a kliensre, a ChatGPT vagy a CharacterAI a nap 24 órájában elérhető, vagyis bármikor lehet fordulni hozzá. Ez egyes kutatások szerint a magányon és a depresszión tud segíteni, Kiss Lehel ugyanakkor úgy gondolja, ez hosszú távon mégsem, és nem mindenki esetében olyan hasznos, mint ahogy hangzik: a világ ugyanis nem így működik, a valóságban nem kapunk folyamatos megerősítést és visszajelzést.

A frusztrációtűrés fontos készség a felnőtt embereknél, van, akinél gyengébb ez az „izom”, annál fokozatosan kell ezt megerősíteni – ehhez azonban egy távolság is kell a másik féltől, hogy megszokjuk: magunkra vagyunk utalva. Egy csetbot egy pszichológussal ellentétben nem tervez tudatosan előre: nincs eleje és vége, íve a folyamatnak, arról nem is beszélve, hogy a modellek fejlesztésével a csetbotok „személyiségén” is folyamatosan változtatnak.

„Olyan, mintha a pszichológusodnak holnap kicserélnék az agyát. Bevállalnád, hogy jársz hozzá fél éve, tud rólad mindent, másnap pedig nem emlékszik semmire, vagy egy másik ember ül ott. Nem egy jó üzlet” – magyarázza a szakember.

Gyakori, csetbotok melletti érv szokott lenni az is, hogy mivel egy gépről van szó, nem történnek olyan hibák, amelyek az emberi természetből adódnak – például nem szól bele torzító tényezőként az, hogy a terapeutának éppen rossz napja van, kevésbé összeszedett, vagy éppen nem emlékszik valamire, ami feszültséget okoz a terápiás kapcsolatban. Kiss szerint ugyanakkor a hibáknak és az esetleges konfliktusoknak is fontos funkciójuk van. Egy megfelelő önismerettel felvértezett pszichológus például teljesen más képet tud adni a konfliktusok kezeléséről olyannak, aki úgy szocializálódott, hogy a vitákat el kell kerülni, de olyannak is, aki folyton konfliktusba keveredik.

„Lehet, hogy 200-szor figyeltem, de 201-edszerre pont nem. És akkor azt mondja: »Maga soha nem figyel rám, a cicám nevét sem tudja!« Az, hogy én erre nem kezdek el összeomlani vagy bántani őt azért, mert haragszik rám, miközben ő ahhoz szokott, hogy ha haragszik valakire, akkor az bántani fogja őt. Ezt nem tudja egy MI, pont a mesterségessége miatt” – mondja Kiss Lehel.

Tüneti kezelés

Mindeközben ott vannak azok az esetek, ahol igenis hibázik a ChatGPT, mégpedig nem is kicsit – ilyen például annak a 16 éves kaliforniai tinédzsernek az esete, akinek öngyilkosságában a fiú szülei szerint tevékeny szerepet játszott a csetbot. A mesterséges intelligencia nem hibázik úgy, mint egy pszichológus, egy pszichológus pedig nem hibázik akkorát, mint az MI – magyarázza Kiss Lehel, aki szerint a fenti eset a pszichológusok rémálma, egy emberi pszichológusnál azonban gyakorlatilag nulla az esélye, hogy ekkora hibát kövessen el. Ha azonban mégis valami hasonló megtörténik, annak valódi következményei vannak.

Bizonyos értelemben a fenti esetnek is lett következménye, ha azt vesszük, hogy az OpenAI nemrég bejelentette: szülői felügyeletet vezetnek be a ChatGPT-nél, emellett azt is fejlesztik, hogy a csetbot jobban észlelje és szakértőhöz irányítsa a felhasználót, ha krízist tapasztal. A cég vezérigazgatója nemrég azt is bejelentette, hogy a jövőben külön szabályokat vezetnének be a tini felhasználóknál – ezeknek megfelelően a csetbot nem flörtölhet és nem beszélgethet velük öngyilkosságról.

Kiss Lehel szerint az az egyik legveszélyesebb a ChatGPT-ben, hogy egy-egy szélsőséges esettől eltekintve általában

„nem mond totális hülyeségeket: szorongásra például tud jó légzőgyakorlatokat ajánlani. Ezek ugyanakkor csak fájdalomcsillapítóknak jók, tartós javulást így nem tudnak elérni, szemben egy jó pszichológussal, aki a gyökérok megszüntetését célozza.”

Éppen ezért a szakember szerint egy csetbot semmiképpen nem tud felváltani egy pszichológust, önismeretben pedig csak egy korlátozott szintig érdemes használni – a tüneti kezelésen túlmutató, tartós javulást, különösen egy komolyabb mentális kondíciónál nem lehet elérni vele.

Magyary Ágnes pszichológus és mesterségesintelligencia-alkalmazási szakember szerint ha már mindenképpen szeretnénk önismeretre használni az MI-t, akkor érdemes a ChatGPT-hez hasonló nyelvi modellek helyett kifejezetten erre kifejlesztett applikációkat használni. Emellett kiemeli azt is, hogy mielőtt szenzitív adatokat adnánk ki, mindenképp olvassuk el az adatkezelési tájékoztatót. Arra ugyanakkor Magyary is ráerősít, hogy a terápia helyettesítésére nem, maximum annak kiegészítésére érdemes használni ezeket az applikációkat, a csetbot által adott válaszokat pedig érdemes egy szakemberrel átbeszélni.

Vékony jégen

A fentiekkel együtt az egyértelműnek tűnik, hogy a mesterséges intelligencia fejlődése nagyban hatni fog a pszichológus szakmára. Ez nem feltétlenül jelenti azt, hogy a csetbotok leváltják majd az emberi pszichológusokat, a szakma legalábbis reménykedik benne, hogy ez nem így lesz. Nemzetközi szinten ugyanakkor egyre több törekvés van arra, hogy az MI eszközeit integrálják a pszichoterápiákba. Az Amerikai Pszichológiai Társaság több ajánlást is kiadott már a témában, de foglalkozott a témával Szondy Máté klinikai szakpszichológus is: a Pszichiátria folyóiratban idén megjelent tanulmányában munkatársaival arra jutott, hogy a pszichológia jövője a kliens, a pszichológus és az MI hármas együttműködésén alapszik majd.

A kifejezetten pszichológiai alkalmazásra fejlesztett csetbotok hatékony segítséget nyújthatnak bizonyos mentális problémák, például depresszió, szorongás vagy akár függőségekkel kapcsolatos problémák kezelésében. Ezeket viszont alapvetően nem önálló használatra ajánlják, hanem a szakemberek munkáját segíthetik – például egy diagnózis felállításában, kezelési tervek készítésében, magyarázza Magyary Ágnes, aki az ELTE Addiktológia kutatócsoport tagjaként az MI lehetséges alkalmazásait kutatja a függőségek kezelésében.

Magyary szerint a kezdeti eredmények arra mutatnak, hogy az MI-nek fontos szerepe lehet hosszú távon az öngyilkossági kockázatok felismerésében és így azok megelőzésében. Itt ugyanakkor fontos leszögezni, hogy ez a kifejezetten ilyen célra fejlesztett algoritmusokra igaz – egy, még 2017-ben készült tanulmány szerint ezek 85 százalékos pontossággal jelezték előre az öngyilkossági kísérleteket 24 hónapon belül, és 92 százalékos pontossággal 2 héten belül.

Hazai viszonylatban azonban még nagyobb a távolságtartás: Kiss Lehel szerint a szakma túlnyomó többsége három lépés távolságot tart a mesterséges intelligencia alkalmazásától, mégpedig többnyire az ember-ember kapcsolat átalakulása és adatvédelmi okok miatt. Kiss ezzel szemben nemcsak hogy használja online praxisában, de egy saját módszertant is fejleszt az MI alkalmazására: főleg dokumentációra és elemzésekre használja az MI-t, ami elsősorban a hatékonyságán és alaposságán segít, emellett többórányi munkát megtakarít vele, magyarázza a szakember.

A terápiás üléseket csak hangfelvételként rögzítik, ezt a szoftver aztán átírja szöveggé, ebben látszik, hogy ki mit mondott az ülésen. „Több elemzési oldalról is nagy értéket látok az alkalmazásában. Objektív mérőszámok alapján például, ha megvan 5-10 találkozónak a dokumentációja, az érzelmeket szavak szintjén ki tudja szedni a szövegből. Erről tud egy grafikonos kimutatást végezni, ami megmutatja, hogyan változott a kliens érzelmi állapota – nemcsak abból, amit mond, hanem a szóhasználatából. Segít a kliens fontos életeseményeinek azonosításában és dokumentálásában. Időközönként összesítést is készítek arról, hogy mi változott, hogyan haladunk, emellett gyakran a saját munkámat is ellenőrzöm a segítségével” – mondja a szakember.

Szerinte ugyanakkor egyértelmű, hogy vékony jégen járunk, az adatvédelmi szempontokat nagyon komolyan kell venni. Kiss ezért minden kliensétől előzetesen írásbeli hozzájárulást kér, emellett a munkájában használt MI-modellek mindegyikére céges szerződés van, ami garantálja, hogy nem oktatják tovább a modelleket a bevitt adatokkal, a szerverek pedig az Európai Unión belül vannak.

Az adatvédelmi szempontok mellett Magyary Ágnes szerint a szakmai alkalmazásban fontos aggályok merülnek fel az MI „elfogultságával” szemben. Ez akkor adódik, ha az MI betanítására használt adatok nem reprezentatívak a társadalom egészére. „Ennek következményeként az MI pontatlan előrejelzéseket tehet, vagy tévesen diagnosztizálhat olyanokat, akik a betanításra használt adatoktól eltérő egészségi, társadalmi, etnikai, vagy gazdasági háttérrel rendelkeznek” – magyarázza a szakember.

Teljesen magukra hagyjuk a gyerekeket az online térben

Az UNICEF 2021-es kutatása szerint világszinten hétből több mint egy, 10 és 19 év közötti fiatal él diagnosztizálható mentális zavarral, ennek a 30-40 százaléka köthető szorongáshoz, depresszióhoz. Egy 2022-es kutatás szerint Magyarországon még rosszabb a helyzet, itt ötből egy az arány. Riasztó adat az is, hogy az európai, 15–19 éves fiatalok között az öngyilkosság a második leggyakoribb halálozási ok, több mint 90 százalékban kezeletlen pszichiátriai betegség áll a háttérben.

A treatment gap a gyerekek esetében is jelentős Magyarországon, erre világított rá már 5 évvel ezelőtti ajánlásában is az ENSZ Gyermekjogi Bizottsága is, amely azt is megállapította, többet kell fektetni az itthoni, gyerekek mentális egészségével kapcsolatos kutatásokba, ezen a téren ugyanis jócskán lemaradásban vagyunk – mutat rá Szlankó Viola.

Éppen ezért itthon még nincsenek arról sem reprezentatív kutatások, hogy a magyar gyerekek mennyire használják mindennapi társalkodó partnerként az MI-t. Egy pár hónapja megjelent brit kutatás szerint azonban a 9–17 éves korosztály 64 százaléka használ MI-csetbotokat: leggyakrabban házi feladathoz, társalgásra vagy érzelmi tanácsadásra – több mint egyharmaduk pedig arról számolt be, hogy barátként tekintenek a csetbotra. A kutatásból kiderült az is, hogy nagyjából negyedük szívesebben beszéli meg a problémákat a ChatGPT-vel, mint egy emberrel, és/vagy azért fordul hozzá, mert úgy érzi, más nem hallgatja meg.

Szlankó Viola szerint a gyerekek számára nagy vonzereje lehet annak, hogy egy csetbot bármikor elérhető, mindig ítélkezésmentesen reagál, és folyamatosan megkapják a pozitív megerősítést és figyelmet, amire sokszor egy túlterhelt szülőnek nincs kapacitása.

Régebben élt az a mondás, hogy egy falu kell egy gyerek felneveléséhez, érzékeltetve, mekkora szociális védőhálóra van szüksége egy gyereknek. A nukleáris családmodell elterjedésével manapság gyakran kevesebb felnőtt veszi körül a gyerekeket, ez a fajta elmagányosodás is vezethet ahhoz, hogy sokan online keresnek valakit, aki meghallgatja őket. A szakember szerint addig nincs is semmi gond, amíg egy MI-csetbot „egy a gyerek falujából”. A probléma ott kezdődik, ha a gyerek legfőbb beszélgetőtársa a csetbot, vagy ha súlyos krízisben van és úgy érzi, csak a csetbothoz fordulhat – itt ugyanis már azon múlik a dolog, hogy az MI felismeri-e az esetleges krízist, vagy sem.

Szlankó szerint ugyanakkor nem lehet elfelejteni a szülők felelősségét sem, a digitális elhanyagolás ugyanis fontos tényező ebben a témában.

„Az a helyzet, hogy szülőként gyakran teljesen magukra hagyjuk a gyerekeket az online térben. Egyszerűen nem tudjuk, hogy milyen tartalmakat fogyasztanak a gyerekek, mik a főbb veszélyek, milyen platformokat használnak. Sokszor annyira távolinak és bonyolultnak tűnik ez a világ, hogy egyszerűbb nem foglalkozni ezzel az egésszel. Ugyanakkor tisztában kell lennünk azzal, hogy

ez az elhanyagolás egyik formája.”

Szerinte, ha egy szülő azt észleli, hogy a gyereke az idejének jelentős részét egy csetbottal tölti, egyrészt reflektálnia kell arra, hogy miért lehet ez, milyen hiányokra utalhat ez a köztük lévő, vagy a kortársakkal ápolt kapcsolatokban. Ezután szülői felelősség, hogy edukálja magát a témában és beszélgessen róla a gyerekével, figyelmeztetve arra, mire lehet alkalmas az MI, és miben kell kritikusnak lenni azzal kapcsolatban, amit mond egy csetbot. Szerinte tiltás helyett jó alternatíva lehet például, ha szülő és gyereke együtt beszélget, kísérletezik a ChatGPT-vel, legalábbis kezdetben.

Az otthoni környezet mellett az iskolákba is be kell vinni a témát: az MI-vel kapcsolatos ismereteknek a tantervben is meg kell jelenniük, ehhez pedig szükség van a pedagógusok edukációjára és a témára való nyitottságára. Szlankó szerint a kormánynak a mesterségesintelligencia-stratégiájában világosan ki kell térnie arra, hogyan védi a gyerekek jogait és érdekeit, ezt nem lehet mellékesen kezelni. Emellett forrásokat kell biztosítania a kutatásokra, amelyek bemutatják a hazai helyzetet, és azt, milyen gyerekjogi kockázatokat rejtenek az egyes MI-platformok.

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!