Psykologtidsskriftet

Fremtidens psykoterapi: Hvilken rolle bør kunstig intelligens spille?

Helene Amundsen Nissen-Lie & Erik Stänicke
  • Helene Amundsen Nissen-Lie

    Psykologisk Institutt, Universitetet i Oslo

  • Erik Stänicke

    Psykologisk Institutt, Universitetet i Oslo

Publisert: 04.07.2025

Bruk av KI i psykoterapi er først og fremst et prinsipielt og etisk spørsmål. I terapeutisk sammenheng må KI anvendes med kritisk refleksjon og etisk ansvar.

Fotografier av artikkelforfatterne

Erik Stänicke og Helene Amundsen Nissen-Lie

Foto: Fredrik Solstad; Ola Sæther

I programmet «The Tonight Show» med Jimmy Fallon (Mesella & Diomeda, 2024) gir Jerry Seinfeld følgende beskrivelse av AI (eller kunstig intelligens, KI) høsten 2024:

Alt vi hadde, var ekte intelligens, ikke sant? Fra vår begynnelse som mennesker. Det funket ikke. Vi var dumme, og vi er fremdeles dumme. Men vi fortsatte å tenke, til vi klarte å lage en fake variant av intelligens: kunstig intelligens. Slik at dumme folk ville virke smarte. Men så begynte vi å tenke, kanskje var ikke det det smarteste vi hadde gjort? For hva om den kunstige hjernen ble smartere enn den ekte hjernen? Da ville vi jo virke enda dummere? Så hvis jeg har forstått dette riktig: Vi er smarte nok til å lage KI, dumme nok til å trenge det, og så stupide at vi ikke aner om vi gjorde det rette. (vår oversettelse)

Bruk av kunstig intelligens i psykoterapi

Årets Psykoterapibiennale på Litteraturhuset i Oslo hadde tittelen «Psykoterapi – et knapphetsgode?» (10. mars, 2025), og førsteforfatter hadde i oppgave å avslutte dagen med et foredrag med tittelen «Fremtidens psykoterapi». Hva var vel mer naturlig enn å se på bruken av kunstig intelligens (KI) i psykoterapi? Kan vi hjelpe flere om vi tar i bruk det teknologiske fremskrittet som KI representerer? Kan vi supplere eller i noen tilfeller erstatte psykoterapi mellom en terapeut og en pasient ved hjelp av KI? Er dette først og fremst et ‘empirisk spørsmål’, om hvor effektiv KI-basert terapi er sammenliknet med vanlig psykoterapi? Altså virker en slik behandling tilfredsstillende eller like godt som tradisjonell psykoterapi? Er det noen som ikke vil profittere på KI-basert terapi? Er dette et empirisk, etisk eller politisk spørsmål? Kan terapi gitt ved hjelp av KI, uten menneskelig kontakt, i det hele tatt kalles psykoterapi? Ved bruk av tenkning fra filosofi og psykoanalytisk teori vil vi argumentere for at mangelen på intensjonalt gjensvar, emosjonell opplevelse eller menneskelig kontakt gjør KI-baserte chatboter til noe annet enn psykoterapi. Vi håper at teksten kan stimulere til faglig refleksjon og diskusjon i feltet.

Mange peker på potensialet KI har i behandling av psykiske helseplager, ikke minst med tanke på at psykoterapi nettopp er et knapphetsgode. KI kan brukes på flere måter i behandlingskjeden (Hatch et al., 2025). Vi kan bruke KI i diagnostisering, KI kan analysere data fra spørreskjemaer og journaler, og det kan brukes i kliniske vurderinger for å bidra til mer presis diagnostikk. KI, eller maskinlæring, kan hjelpe oss å finne riktig behandling eller tilpasse behandlingen vi allerede gir (se Delgadillo & Atzil-Slonim, 2023). Kombinert med KI kan virtuell virkelighet (VR) brukes til eksponeringsterapi for angst (se blant andre Imel et al., 2017). Man kan bruke apper til å overvåke symptomer, humør og til og med selvmordsfare. I en fersk norsk studie undersøker en gruppe forskere hvordan ungdom mellom 16 og 20 år opplever svarene om psykisk helse fra store språkmodeller (ChatGPT) sammenliknet med svarene fra fagpersoner hos en nettbasert informasjonstjeneste (ung.no). Deltakerne var positive til svarene fra både fagpersoner og ChatGPT, men anbefalte oftere svarene fra ChatGPT til andre. Som begrunnelse for det oppgav en undergruppe av deltakerne som ble undersøkt kvalitativt at svarene fra ChatGPT blant annet hadde høyere informasjonskvalitet og var mer velstrukturte (Skjuve et al., 2025).

Ved hjelp av avanserte språkmodeller kan vi også i helsetjenestene bruke KI-baserte chatboter eller terapiboter til noe som likner mer direkte på psykoterapi. KI-baserte chatboter blir programmert til å gi ulike intervensjoner, fra validering, strukturering av tanker, utforsking av følelser til ulike hjemmeoppgaver, eller å engasjere pasienter i terapeutisk interaksjon over tid. Det er spesielt bruken av KI i terapeutisk interaksjon over tid vi vil drøfte i artikkelen.

Det er ennå få gode studier på denne bruken av KI, men flere er på trappene. De studiene som sammenlikner en terapibot med tradisjonell psykoterapi, finner at tradisjonell terapi gir bedre effekt, men at chatboten kan være nyttig i akutte kriser for pasienten der tilgang til terapeuten er begrenset (Spytska, 2025). En systematisk oversikt med 20 studier fant at selv om KI-terapi er tilgjengelig og kan redusere symptomer, øke livskvalitet og brukertilfredshet på tvers av pasientgrupper, finnes det betydelige etiske problemer, og mangel på ekte menneskelig empati og innlevelse blir sett på som et hinder for reell endring (Li et al., 2023).

Menneske og maskin

Forholdet mellom menneske og maskin er et spørsmål akademikere har holdt på med lenge, men spørsmålet har fått ny aktualitet med kunstig intelligens. I bestselgeren The emperor’s new mind fra 1990, oppdatert i 1998, hevder Robert Penrose at den avgjørende forskjellen mellom menneske og maskin er bevisst tilstedeværelse, eller bevissthet, som krever en organisk (eller levende) enhet. Han viser til matematikeren Alan Turing, som løste Enigma-koden til tyskerne under andre verdenskrig, og hans Turing Machine, en forløper for KI som tester om en forsøksperson klarer å gjette om det er en maskin eller et menneske som kommer med en respons. Det viktigste, ifølge Penrose, er ikke om svarene gitt av Turing-maskinen likner et svar fra et menneske, men om man kan tilskrive svaret en menneskelig intensjon. Her bryter det sammen for KI. KI har ingen menneskelig intensjon.

For Penrose er det klart at mennesket er fundamentalt annerledes enn en maskin. Uavhengig av hvor kraftfull og avansert computeren er, vil ikke maskinen ha et sinn (eller mind), og kan derfor egentlig ikke tenke. Det er ingen der! Computere (maskiner) kan simulere menneskelig kontakt, men det vil alltid forbli en simulering. Selv om de etter hvert kan reflektere og dermed gjøre noe som likner på tenkning, er det fortsatt simulering av tenkning.

ELIZA – den første terapiboten

Når det gjelder terapi, peker Penrose på et computer-program utviklet i 60-årene, ELIZA, som simulerte en rogeriansk/klientsentrert terapeut. Det ble så vellykket at flere pasienter sa at «de foretrakk maskinen fremfor en menneskelig terapeut», og rapporterte at de klarte å avsløre mer av seg selv overfor computeren enn overfor en terapeut.

Som respons på ELIZA-teknologien noterer Weizenbaum seg allerede i 1966 at man med enkle midler kan skape en illusjon av menneskelig forståelse. Siden den gang har språkmodellene gjennomgått en revolusjon. De er nå allemannseie og erstatter menneskelig funksjon i nærmest hver eneste sektor, og de forandrer vår måte å være i verden på (Brandtzæg et al., 2024). I en artikkel publisert i 2025, «When ELIZA meets therapists: A Turing test for the heart and mind», viser Hatch et al. at deltakere (n = 830) sjelden klarte å skjelne mellom svar til parterapi-vignetter skrevet av en terapeut og svar generert av ChatGPT. Svarene fra KI var ofte mer i samsvar med teoretiske prinsipper for parterapien, men språkmønsteret var ulikt når det var skrevet av et menneske versus ChatGPT (Hatch et al., 2025). Basert på funnene var forskernes konkusjon klar:

Plainly stated, if GenAI (i.e. KI) cannot do it now, it will find a way to imitate humans to a sufficient degree soon. Thus, mental health experts find themselves in a precarious situation: we must speedily discern the possible destination (for better or worse) of the AI-therapist train as it may have already left the station. (Hatch et al., 2025)

Sørgeboter og unnvikelsen av sorg

Psykoanalytikeren Alessandra Lemma (2024) bruker teori fra Freud, Klein og Derrida i forståelsen av fenomenet griefbots (sørgeboter), som er KI-genererte chatboter laget for å simulere samtaler med våre kjære selv om de er døde. Dette er en uhyggelig, men reell, voksende industri som anvender språkmodeller og maskinlærings-algoritmer basert på bilder og videosnutter av den avdøde eller chatter, e-poster, sms-er og sosiale medier-poster vedkommende har skrevet, for å etterlikne den døde og skape en fortsatt samtale eller «interaksjon» med den som er borte. Dette er altså dynamiske, digitale roboter som lærer kontinuerlig og utvikler seg i henhold til hva de blir matet med. Det kan bli skremmende likt «the real thing».

Lemma viser til en engelsk sciencefiction-TV-serie, Black Mirror, og en episode ved navn Be Right Back. I denne episoden møter vi Martha og Ash som er unge og vilt forelsket. Ash dør plutselig i en bilulykke, og Martha får høre i begravelsen av en velmenende venninne at hun kan skape en «Ashbot» som er en etterlikning av Ash (i form av en stemme på øret). Denne skapes ved hjelp av bilder, filmer, telefonsvarerbeskjeder, sms-er og mailer hun kan mate boten med. Hun bruker mer og mer tid med Ash på øret. Etter hvert utvikler teknologien seg så hun kan få Ash i 3D-format, og hun bestiller etter hvert en dukke hjem til seg som likner på Ash og oppfører seg som Ash. Martha er såre fornøyd. Inntil hun ikke er det lenger, fordi det går opp for henne at han jo ikke er seg selv, men en kopi. Ashboten spiser ikke, men han lager mat, han puster ikke og sover ikke, men han kan late som. Han hjelper henne med alle behov, inkludert seksuelle. Han er perfekt. Men det er jo ikke Ash. Han er kun et ekko av alt som er matet inn. Han er forutsigbar og aldri drevet av eget begjær. Han tilpasser seg Martha i ett og alt. Han krangler aldri. Martha blir på slutten helt desperat etter å få en ekte emosjonell respons – ikke en forhåndsprogrammert maskinlæringsrespons – og kaster dukken på loftet for aldri å interagere med den igjen (se Lemma, 2024).

Psykoanalyse og eksistensialisme

I artikkelen drøfter Lemma problematiske sider ved bruk av KI og maskinlæring i en terapeutisk sammenheng, men hun mener ikke at all bruk av KI i terapeutisk øyemed er en dårlig ide. Derimot bringer hun frem menneskets vansker med å sørge over det tapte, og at sørgeboter blir en avansert måte å slippe unngå sorgen på. Den sørgende unngår det viktige sorgarbeidet som både Freud og Klein skrev om i sine mest kjente tekster, og holder den døde kunstig (apropos kunstig intelligens) i live. Slike sørgeboter utsetter vår erkjennelse av smertefulle tap og anerkjennelse av «den andres annethet», sier Lemma, som er helt grunnleggende for psykisk vekst og modning og for å kunne ha ekte relasjoner til virkelige mennesker.

Lemma anvender tekningen til Derrida om sorg, der han understreker at å sørge er en prosess som aldri blir avsluttet. Det er en kontinuerlig prosess som «utfordrer oss å holde på det tapte objekts ‘annethet’, der man alltid må bestrebe seg på å beholde perspektivet om den andre oppe» (Lemma, 2024, s. 544).

Ideen om den andre som en person i egen rett, ikke en forlengelse av en selv eller egne behov, kan minne oss på Winnicotts (1971) begrep om ‘objekt-bruk’ (Use of an Object), som han setter opp i motsetning til å relatere seg til objektet. Sistnevnte innebærer for Winnicott at vi relaterer oss til den andre som noe som skal tilfredsstille våre behov. Å bruke objektet (kanskje overraskende da det i norsk hverdagsspråk har en negativ klang), innebærer faktisk at vi oppdager at den andre har egne tanker, behov og følelser som kanskje kan lære oss noe, hjelpe oss eller veilede oss i noe vi ikke klarer på egenhånd.

Betydningen av å relatere seg til den andres annerledeshet minner også om tenkningen til eksistensialisten Martin Buber i boken hans Ich und Du (Jeg og Du) fra 1923. Han trekker opp det sentrale skillet mellom Jeg–Du, basert på subjekt–subjekt-relasjoner, og Jeg–Det, som svarer til subjekt–objekt-relasjoner. Buber er klar på at vi ofte reduserer den andre til objekt (nettopp i Jeg–Det-relasjoner). Vi prøver å styre og kontrollere den andre, som vi vil skal oppfylle våre personlige eller kollektive behov og interesser, og denne formen dominerer i det moderne samfunnet, ifølge Buber. Men det finnes en annen, sannere vei, og det er en relasjon «fra menneske til menneske». I den intersubjektive tenkningen er det mulig for mennesket å tre inn i relasjoner som øker vår gjensidige, eksistensielle verdighet, der den andre trer frem som et subjekt, en person i sin egen rett og ikke kun som en forlengelse av oss selv. Bubers poeng er å understreke verdien av å forholde seg til den andre med umiddelbarhet, gjensidighet og anerkjennelse som grunnprinsipper (Nissen-Lie, 2024).

Anne-Lise Løvlie Schibbye og Elisabeth Løvlie, som også har et intersubjektivt perspektiv i sin tenkning, ser på dette som et spørsmål om menneskesyn, som igjen tilsvarer to væremåter i relasjoner. Schibbye og Løvlie (2017) er inspirert av den tyske filosofen Georg Wilhelm Friedrich Hegel, som legger til grunn vårt universelle behov for anerkjennelse og anerkjennelsens paradoks. De skriver: «En forutsetning for anerkjennelse er den menneskelige evnen vi har til å innta den andres perspektiv. Jeg kan vite noe om og forstå din opplevelse, din smerte, din sorg og din glede. Men, og det er vel så viktig, jeg kan ikke vite alt om din opplevelse. Jeg kan derfor aldri fortelle deg hvordan du har det, eller hva du opplever. Ditt indre landskap er meg både kjent og fremmed» (Schibbye & Løvlie, 2017, s. 49).

Stein Bråten, utviklingspsykologen, sosiologen og dialogens tenker i Norge som døde for litt over ett år siden, er også kjent for sin betoning av gjensidig kommunikasjon, eller dialogen mellom mennesker som står i et forhold til hverandre som subjekter. Han var dypt påvirket av Buber, men også spedbarnsforskningen og hvordan barnet fra starten av er åpent for å inngå i en gjensidig, turtakende relasjon. Bråten er kjent for bruken av moderne teknologi og begreper som ‘den virtuelle annen’, en indre annen eller en indre ledsager vi har med oss fra starten. Barnet har en slik virtuell annen med seg, som gir rom for senere dannelser av forestilte andre, sier Bråten. Ifølge Bråten handler dialogen om «gjensidig opplevelse av hverandres verbale og ikke-verbale ytringer, og innlevelse av hverandres meningshorisont» (2004, s. 49).

Må terapeuten være et menneske?

Betydningen av intensjonalitet i møtet mellom mennesker kan spores blant annet til Hegels filosofi. I hans tenkning står ideen om gjensidig anerkjennelse sentralt i dannelsen av subjektet (se McGowen, 2019). Et møte preget av gjensidig anerkjennelse innebærer en gjensidig intensjonalitet. Vi kan si det hverdagslig; vi mennesker er sensitive for om «noen er hjemme» i kommunikasjonen. Dersom en person ikke forstår, eller etteraper, eller til og med tilsynelatende forstår, men uten empati og anerkjennelse, blir vi vanligvis frustrert, skremt eller uinteressert.

Hvordan virker egentlig intensjonalt gjensvar, at det er en annen der? Følgende autentiske vignett kan illustrere dette:

En mannlig pasient fortalte terapeuten sin om barndommen sin. Den var av og til preget av vold som en måte å disiplinere barna på. Pasienten hadde lært seg til å fremstå med en maske av tøffhet, som også ble en overlevelsesmekanisme for å beskytte seg mot skam. Han bagatelliserte volden både overfor seg selv og terapeuten. Han tenkte ikke på hendelsene som vold, men som «juling» som kunne inngå i oppdragelsen, noe han også trodde var vanlig i de fleste familier på den tiden. Det har ikke preget meg, hevdet han. Som et ledd i det å hjelpe pasienten til å komme mer i kontakt med smerten spurte terapeuten om ikke pasienten kunne gi et eksempel på en hendelse der han ble utsatt for vold. Pasienten fortalte noen episoder, men var ikke i kontakt med sine følelser underveis. Han kikket opp på terapeuten, og der så han at hun var dypt beveget og satt med en tåre i øyekroken. Han fikk gjennom denne hendelsen en emosjonell opplevelse som skulle ha stor betydning for ham: Hun blir sterkt beveget over noe jeg har opplevd som barn, men som jeg senere aldri har latt gå innpå meg. Hva er det egentlig jeg ble utsatt for som får henne til å bli så beveget? Erfaringen i denne timen ble et vendepunkt, der han begynte å åpne seg for både sårbarhet og ydmykelsen som var knyttet til disse hendelsene. Gradvis kunne han ta inn hvilken følelsesmessig betydning dette kunne ha for ham. Han ble mer emosjonelt åpen, mindre selvtilstrekkelig og mer mottakelig både for sin egen og andres sårbarhet.

Flere kvalitative studier innen psykoterapi understreker nettopp betydningen for pasienten av å se at terapeuten blir berørt (se f.eks. Alessandrini, 2024). I terapeutisk endringsteori har ofte terapeutens empati en sentral plass. Man definerer empati som en egenskap eller funksjon med to like viktige komponenter: en emosjonell identifikasjon – det å føle det pasienten føler, og en kognitiv komponent som handler om perspektivtaking: Hvordan forstås dette sett fra pasientens perspektiv? Det første krever kontakt med eget følelsesregister, det siste krever, basert på en egen opplevelse, også en de-sentrering og en forståelse av at pasienten kan føle det på en annen måte, gitt hennes eller hans omstendigheter og livserfaringer.

For Carl Rogers var terapeutens evne til å møte sine klienter med empati, ubetinget positiv aktelse (eller en ikke-dømmende holdning) og kongruens (samsvar mellom det verbale og nonverbale budskapet) eller autentisitet helt avgjørende for endring. I sin bok fra 1961 skriver han om den terapeutiske relasjon som helende i seg selv, og terapeutens evne til å møte en pasient med de tre komponentene vil føre til at pasienten kan overta denne holdningen overfor seg selv og utvikle seg i tråd med menneskets iboende vekstpotensial. Selv om terapibot kan simulere empati, føler den ingenting og empatien blir dermed også ‘kunstig’.

Begrensninger ved kunstig intelligens

Med kunnskap fra nevrovitenskapene er det klart at vi mennesker besitter ulike hukommelsessystemer. Et hovedskille går mellom implisitt og eksplisitt hukommelse, som har betydning for spørsmålet om bruk av KI i terapi. Implisitt hukommelse omfavner vår prosedurale hukommelse, der vi har lagret ulike ferdigheter, som å svømme, men også vår emosjonelle hukommelse, der blant annet innlæring og kobling av emosjonelle stimuli til ulike responser, såkalt «priming», skjer (se Nissen-Lie, 2013).

Flere fremhever at denne kunnskapen ikke er direkte tilgjengelig eller mulig å påvirke ved hjelp av språk og rasjonalitet, som ved bruk av tolkende eller kognitivt restrukturerende teknikker. Daniel Stern (2004, s. 283) skriver i The Present Moment of Psychotherapy at mye av den terapeutiske endringen skjer i denne implisitte prosedurale viten (eller ‘implicit relational knowing’). Ifølge Peter Fonagy (1999) kjennetegnes den implisitte, prosedurale kunnskapen av at den er ikke-symbolisert, nonverbal og ubevisst, og fungerer som et motstykke til vår verbaliserte, deklarative, reflekterte og eksplisitte viten. Fonagy argumenterer videre for at terapi kan endre prosedural hukommelse av relasjonelle samspill via arbeidet i overføringen med terapeuten.

Ny prosedural kunnskap om selvet-i-relasjon skapes i relasjonen til terapeuten gjennom spesielle øyeblikk av intersubjektiv deling som re-organiserer pasientens tidligere implisitte kunnskap om selvet-i-relasjon. For å få til dette må terapeuten på et mikronivå og med bruk av indre signaler, også kroppslige, tone seg inn på signaler fra det implisitte systemet, og intervenere vel så mye nonverbalt som verbalt ved hjelp av emosjonell inntoning og speiling. Begreper som bekreftelse (Killingmo, 1989) og containing (Bion, 1962) er relevante her.

Her er vi ved en kjerne. De av våre pasienter som kommer til oss med tidlige relasjonsskader, vil særlig være avhengig av å møte et ekte menneske i terapi som kan hjelpe dem å modifisere denne implisitte kunnskapen. Vanskene som har oppstått i relasjoner, må heles i relasjoner. Dette er pasienter som psykoanalytikeren Bjørn Killingmo ville sagt har en overveiende mangelpatologi eller tidlig relasjonsskade, der den viktigste endringen må finne sted i den implisitte relasjonelle kunnskapen eller erfaringen, gjennom bekreftende intervensjoner. I slike terapiprosesser trengs mange repetisjoner i den terapeutiske relasjonen for at pasienten kan lære seg å stole på eller føle seg trygge sammen med terapeuten, slik at de underliggende skjemaene, scriptene eller indre objektrelasjonene deres kan endre seg.

Mange vil kunne få hjelp av KI, men pasienter som har med seg traumatiske relasjonserfaringer, vil trolig ikke generalisere kunnskapen de får av en chatbot, til menneskelige relasjoner. Å få bekreftelse, både verbalt og nonverbalt, på egne opplevelser som de tviler på er gyldige, vil være den grunnleggende endringsmekanismen her. En slik validering av opplevelsen – nettopp fordi den innebærer et intensjonalt svar fra terapeuten – ligger utenfor det KI kan hjelpe oss med. Bruk av KI i terapeutisk sammenheng vil derfor begrense seg til selvhjelp, lindring eller coaching. Vi kan si det enda tydeligere: Behandling med KI-basert terapi er ikke psykoterapi utfra en prinsipiell definisjon av begrepet.

KI simulerer menneskelig kontakt ved bruk av avanserte språkmodeller, men det er ingen der som tar inn, tenker om eller føler med pasienten. Det er grunnleggende i enhver psykoterapi. Det er det som gjør psykoterapi til psykoterapi, vil vi mene.

Bruk av KI- basert terapi - en konklusjon

Å bruke KI i terapisammenheng reiser spørsmål om betydningen av subjektivitet, det feilbarlige, det å ha en kropp (embodiment) og intensjonalt gjensvar. Terapiboter som er programmert til å etterape en terapeut, kan gi strukturerte og gode svar på pasientens utsagn. Studier viser at mange opplever disse utsagnene som mer presise enn dem som er gitt av et menneske, og at de ofte er til god hjelp (Barzkar et al., 2025). Mens KI-basert terapi er «feilfri» og noen ganger foretrukket av pasienter, vil man kunne hevde, med støtte i empirien og i teori, at det er nettopp feilene – eller misforståelsene og feilinntoningen fra terapeuten – som danner grunnlaget for noe av det viktigste terapeutiske arbeidet (Safran, 1993). Disse alliansebruddene, eller rupturene, gir mulighet for reparasjon, som i sin tur kan styrke den terapeutiske alliansen og pasientens evne til å håndtere relasjonelle konflikter på en måte som underbygger både autonomi og relasjoner til andre mennesker (Barzkar et al., 2025; Eubanks et al., 2023).

Etter vår mening er ikke bruk av KI i psykoterapi kun et empirisk spørsmål – «virker det?», men like mye, om ikke mer, et prinsipielt og etisk spørsmål. Bruk av KI i terapeutisk sammenheng må gjøres med kritisk refleksjon og etisk ansvar.

Vi kan få mye ut av KI likevel, og de fleste endringer i et menneskeliv skjer ikke gjennom psykoterapi. Vi har alltid brukt litteratur, andres livserfaringer, myter, eventyr, musikk, kunst og ulike former for selvhjelp for å lære om oss selv og få det bedre i livet. Likeledes kan KI gi nyttige innspill selv om de ikke er gitt av et menneske.

«Psykoterapi er jo et knapphetsgode, da må vi kunne bruke kunstig intelligens! Alle kan jo ikke få sin egen terapeut», sies det. Det er jo helt riktig, men det er også en til dels skremmende retorikk. Vi frykter et klassedelt helsevesen, og i enda større grad med KI. Folk med ressurser vil alltid kunne skaffe seg en menneskelig psykoterapeut, mens folk uten midler må ta til takke med billigere løsninger, slik KI-basert terapi vil være.

Vi kan øke tilgangen til psykoterapi med KI, men tilgangen til hva? I verste fall vil ikke mer teknologi gjøre befolkningen mindre deprimerte. Teknologien rundt oss, som kan virke fremmedgjørende og fjerner oss fra menneskelig kontakt, er kanskje til og med en del av problemet.

Referanser

  1. Alessandrini, K. (2024). Small things—‘It felt like love’—The experience of being deeply moved in therapy: Clients’ stories of the small things that matter in therapy. Counselling and Psychotherapy Research, 24(2), 768–781. https://doi.org/10.1002/capr.12713

  2. Barzkar, F., Zaribaf, A., Mirfazeli, F. S. & Keshavarz-Akhlaghi, A. A. (2025). The Machine as Therapist: Unpacking Transference and Emotional Healing in AI-Assisted Therapy. Journal of Contemporary Psychotherapy, 1–8. https://doi.org/10.1007/s10879-025-09677-7

  3. Bion, W. R. (1962). Learning from experience. Heinemann.

  4. Brandtzæg, P. B., Skjuve, M. & Følstad, A. (2024). Emerging AI Individualism. SSRN. http://dx.doi.org/10.2139/ssrn.4836120

  5. Bråten, S. (2004). Kommunikasjon og samspill – fra fødsel til alderdom (2. utg.). Universitetsforlaget.

  6. Buber, M. (1923). Ich und Du. Insel Verlag.

  7. Delgadillo, J. & Atzil-Slonim, D. (2023). Artificial intelligence, machine learning and mental health. I H. S. Friedman & C. H. Markey (Red.), Encyclopedia of Mental Health (3. utg., s. 132–142). Academic Press. https://doi.org/10.1016/B978-0-323-91497-0.00177-6

  8. Eubanks, C. F., Samstag, L. W. E. & Muran, J. (2023). Rupture and repair in psychotherapy: A critical process for change. American Psychological Association.

  9. Fonagy, P. (1999). Memory and therapeutic action. The International Journal of Psychoanalysis80(2), 215.

  10. Hatch, S. G., Goodman, Z. T., Vowels, L., Hatch, H. D., Brown, A. L., Guttman, S., Le, Y., Bailey, B., Bailey, R. J., Esplin, C. R., Harris, S. M., Holt Jr., D. P., McLaughlin, M., O’Connell, P., Rothman, K., Ritchie, L., Top Jr., D. N. & Braithwaite, S. R. (2025). When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Mental Health, 2(2). e0 000 145. https://doi.org/10.1371/journal.pmen.0000145

  11. Imel, Z. E., Caperton, D. D., Tanana, M. & Atkins, D. C. (2017). Technology-enhanced human interaction in psychotherapy. Journal of Counseling Psychology, 64(4), 385–393. https://doi.org/10.1037/cou0000213

  12. Killingmo, B. (1989). Conflict and deficit: Implications for technique. International Journal of Psycho-Analysis, 70, 65–79.

  13. Lemma, A. (2024). Mourning, melancholia and machines: An applied psychoanalytic investigation of mourning in the age of griefbots. International Journal of Psychoanalysis, 105(4), 542–563. https://doi.org/10.1080/00207578.2024.2342917

  14. Li, H., Zhang, R., Lee, Y. C., Kratu, R. E. & Mohr, D. C. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. npj Digital Medicine, 6, 236. https://doi.org/10.1038/s41746–023–00 979–5

  15. McGowen, T. (2019). Emancipation After Hegel – Achieving a Contradictory Revolution. Columbia University Press.

  16. Mesella, P. (Manusforfatter) & Diomeda, D. (Regissør). (2024, 28. november). The Tonight Show Starring Jimmy Fallon (Episode 2060). I L. Michaels (Produsent), The Tonight Show Starring Jimmy Fallon. Electric Hot Dog. NBC.

  17. Nissen-Lie, H. A. (2013). Teknikk eller relasjon i psykoterapi: En uhensiktsmessig dikotomi? I E. J. Hartmann, E. Axelsen & K. Benum (Red.), God psykoterapi? Et integrativt perspektiv (s. 320–342). PAX forlag.

  18. Nissen-Lie, H. A. (2024). Forord. I S. Bråten, Fange øyeblikk med gjensidig kommunikasjon mellom barn og voksne. The estate of Stein Bråten. Publisert av Yoga4d:VRGM.

  19. Penrose, R. (1990). The emperor’s new mind. Oxford University Press.

  20. Rogers, C. (1961). On becoming a person: A therapist’s view on psychotherapy. Houghton Mifflin.

  21. Safran, J. D. (1993). Breaches in the therapeutic alliance: An arena for negotiating authentic relatedness. Psychotherapy: Theory, Research, Practice, Training30(1), 11.

  22. Schibbye, A.-L. L. & Løvlie, E. (2017). Du og barnet. Universitetsforlaget.

  23. Skjuve, M., Følstad, A., Dysthe, K. K., Brænden, A. & Brandtzæg, P. B. (2025). Unge og helseinformasjon. ChatGPT vs. fagpersoner. Tidsskrift for velferdsforskning, 27(4). https://doi.org/10.18261/tfv.27.4.2

  24. Spytska, L. (2025). The use of artificial intelligence in psychotherapy: development of intelligent therapeutic systems. BMC Psychology, 13, 175.  https://doi.org/10.1186/s40359-025-02491-9

  25. Stern, D. N. (2004). The Present moment in psychotherapy and everyday life. W. W. Norton.

  26. Winnicott, D. W. (1971). The use of an object and relating through identifications. Basic Books.