KI og symbiotisk intelligens – en brytningstid for helsemyndiggjøring?
Rune Johan Krumsvik
- Rune Johan Krumsvik
Universitetet i Bergen

Rune Johan Krumsvik
Foto: Hans Jørgen Brun
I en tid der tilgangen til primærhelsetjenesten fortoner seg som en ørkenvandring, kan etisk og reflektert bruk av KI styrke folks helsemyndiggjøring.
I Etikkpanelet i Psykologtidsskriftet i januar løftet Gaute Godager frem ulike sider ved kunstig intelligens innenfor en terapikontekst (Godager, 2025). Selv om viktige etiske aspekt blir berørt, kunne det vært adressert i større grad hva KI kan bidra med når det gjelder helsemyndiggjøring (health empowerment) – spesielt når primærhelsetjenesten knaker i sammenføyningene og time hos fastlege og psykolog er lettere sagt enn gjort (Krumsvik & Slettvoll, 2025a). Kan KI fremme helsemyndiggjøring hos folk flest, hva viser kunnskapsgrunnlaget, og er vi inne i en brytningstid rundt «KI-hjelp til selvhjelp»?
Både i min KI-bok (Krumsvik, 2023a) og i en KI-artikkel (Krumsvik, 2023b) skrev jeg en del om sosiale chatboter, KI-baserte chatboter o.l., og viste til studier fra pandemien som fant at «the overwhelming majority of Replika users experienced improvements in mental wellbeing during the COVID pandemic social isolation» (Krumsvik, 2023b, s. 257; Pentina, et al., 2023). I etterkant av denne studien er det publisert flere systematiske kunnskapsoppsummeringer og metaanalyser om effekten av slike sosiale chatboter på psykisk (u)helse, depresjon, helsefremmende livsstil m.m. Zhong et al. (2024) finner i sin systematiske review og metaanalyse at «AI-chatbots demonstrate significant reductions in depression and anxiety» (s. 459). Li et al. (2023) skriver: «The meta-analysis revealed that AI-based CAs significantly reduce symptoms of depression and distress. These effects were more pronounced in CAs that are multimodal, generative AI-based, integrated with mobile/instant messaging apps, and targeting clinical/subclinical and elderly populations» (s. 1). Singh et al. (2023) konkluderer med at selv om enkelte av primærstudiene hadde metodologiske svakheter, viste metaanalysen «significant effects of chatbots for increasing total physical activity, daily steps, fruit and vegetable consumption, sleep duration and sleep quality» (s. 1).
Funnene fra disse kunnskapsoppsummeringene er særlig interessante fordi de utfordrer etablerte forestillinger om helsemyndiggjøring, hvordan terapi kan utføres, og hvordan sosiale relasjoner dannes, opprettholdes og forstås i møte med KI-baserte interaksjoner. Våre egne casestudier indikerer at KI kan styrke helsemyndiggjøringen for folk i grisgrendte strøk og rasstengte bygder hvor tilgang til primærhelsetjenesten er begrenset eller umulig. KI kan bidra til å styrke pasientens autonomi, og redusere helsepaternalisme – kjerneelementer i helsemyndiggjøring – men foreløpig er kunnskapsgrunnlaget mangelfullt (Krumsvik, Johansen & Slettvoll, 2025; Krumsvik, Klock & Bratteberg, 2025; Krumsvik & Slettvoll, 2025a, b). I tillegg har de ovennevnte kunnskapsoppsummeringene også flere svakheter: De har relativt få primærstudier og er noe tilbakeskuende og baserer seg på språkmodellers «modenhet» og versjoner slik de opptrådte i primærstudiene fra 2023 og 2024. Og det er ikke uvesentlig. Det har nylig vært publisert studier som viser at de siste språkmodellene for første gang har klart Turing-testen (Jones & Bergen, 2025), de har scoret svært høyt på den meget krevende ARC-AGI-testen (Chollet, 2024), og flere RCT-studier viser at GPT-er scorer bedre enn leger (Goh et al., 2024) – også på empatiske evner (Brin et al., 2023).
I tillegg viser vår forskning i Digital Learning Communities Artificial Intelligence Centre (DLCAIC-forskning (Krumsvik, 2025a) at store språkmodeller som GPT-4 blant annet er kapable til å bestå norskspråklige medisinske eksamener (Krumsvik, 2025b) og psykologiske eksamener (stikkprøver, Krumsvik, 2023a), samt at GPT-4 og GPT-4o har markert seg som kraftige Large Language Models (LLM)-er innen kunnskapsreproduksjon innen en rekke andre områder (Krumsvik, 2023a). Hva er det disse store språkmodellene faktisk gjør? LLM-er har høy prediksjonsevne, og det handler om statistisk resonnering, erfaringsbaserte mønstre og redundans. Gjennom våre kunnskapsoppsummeringer i 2023 (Krumsvik, 2023a) (også innenfor psykologi) fant vi at GPT-4 hadde et usedvanlig stort treningsgrunnlag og antall parametere. Når vi ser at den scorer høyt på medisinske eksamener, er det fordi eksamenene primært tester bruk av kjent kunnskap fra et enormt korpus innenfor veldefinerte rammer. I slike sammenhenger er GPT-4 fortsatt en formidabel kandidat.
Fra mønstergjenkjenning til kognitiv simulering?
Men utfordringen oppstår når vi beveger oss utenfor de velkjente stiene. Hvordan vil GPT-er prestere når de står overfor helt nye psykologiske fenomener, et nytt virus, en ukjent komplikasjon eller en pasienthistorie som ikke matcher tidligere lærte mønstre?
Noe av svaret ligger i tester som ARC-AGI (Abstraction and Reasoning Corpus for Artificial General Intelligence) (Chollet, 2024) utviklet for å måle en KI-modells evne til å løse helt nye problemer uten å ha sett lignende eksempler før. På ARC-AGI har tradisjonelle modeller som GPT-3 og GPT-4 prestert tilnærmet null, fordi de mangler evnen til adaptiv problemløsning.
Derfor er OpenAIs nye o3-modell særlig interessant, da den bryter gjennom denne barrieren. For første gang ser vi en GPT som presterer over 50 % på ARC-AGI – et nøkkeltall som markerer en overgang mot mer generalisert og symbiotisk intelligens (Licklider, 1960; Chollet, 2024; Krumsvik, Johansen & Slettvoll, 2025; Krumsvik, Klock & Bratteberg, 2025; Krumsvik & Slettvoll, 2025a, b). Hva gjør o3 annerledes?
I stedet for å gi et umiddelbart svar driver o3 med internt søk i et rom av mulige tankerekker – kjent som Chain of Thought (CoT)-søk. Modellen genererer, tester og velger mellom ulike resonnementer basert på test-time search med en evalueringsmodell før den svarer. Denne evnen minner om hvordan mennesker løser ukjente problemer: ved å vurdere flere mulige strategier før beslutningen tas. Tidligere GPT-modeller fungerte primært som «intelligente biblioteker» – fremragende i å hente kjent kunnskap, gode til å resonnere, men sårbare i møte med ukjente fenomener. Ut fra vår nylige pretesting av o3 (Krumsvik, Johansen & Slettvoll, 2025; Krumsvik, Klock & Bratteberg, 2025; Krumsvik & Slettvoll, 2025a, b) ser vi konturene av en GPT som kan kombinere eksisterende kunnskap på nye måter og tilpasse seg nye, ukjente fenomener. For å komme dit må vi kombinere følgende to tilnærminger: 1) Retrieval-Augmented Generation (RAG) – muligheten til å hente fersk ekstern kunnskap i sanntid; og 2) Chain of Thought Search (CoT-søk) – evnen til å dynamisk generere og vurdere nye resonnementer. Dette krever avansert arkitektur – og tiden vil vise når dette blir realisert.
Symbiotisk intelligens
o3-modellen viser at språkmodellene har kommet lenger enn bare kunnskapsreproduksjon basert på treningsgrunnlaget, som GPT-4 og GPT-4o er kjent for. Det er viktig å ta høyde for denne «symbiotiske intelligensen» innen de fleste fagdisipliner – også innen psykologi og i terapeutiske kontekster. Det handler ikke om å erstatte psykologer, fastleger osv. med KI, men at vi ser konturene av at ekspertkompetansen disse profesjonene har, komplementeres med en «symbiotisk intelligens» som kunnskapsgrunnlaget viser at KI allerede besitter. Så når Godager (2025) adresserer om psykologer vil bli erstattet av KI i fremtiden, så må man må gå til kjernen av det som ligger under et slikt kontraintuitivt postulat: at KI illustrerer at vår dikotomiske holdning om menneske versus maskin for ofte setter søkelys på en utskiftning av psykologer (og andre profesjoner) i stedet for en gjennomtenkt KI-integrering. Dette kan gi grobunn for en «KI-hjelp til selvhjelp» og helsemyndiggjøring, men krever en årvåkenhet rundt det «etiske minefeltet» det har vist seg at KI kan være. For å unngå dette kreves det en sektorkunnskap som profesjonene selv besitter, og som gjør at man unngår en form for teknologideterminisme hvor andre aktører er premissleverandørene og «KI-hypen» rår grunnen. Brukt på en kunnskapsbasert, gjennomtenkt og etisk fundert måte kan KI brukes komplementært for å styrke folk flests helsemyndiggjøringer i en tid hvor tilgang til primærhelsetjenesten kan fortone seg som en ørkenvandring for altfor mange. En slik helsemyndiggjøring ivaretas best når profesjonsekspertene selv har hånden på rattet: Psykologen Harvey Lieberman testet nylig ChatGPT grundig i tre måneder og fant at den fungerte som en «kognitiv protese» for ham. Han erkjente at selv om den ikke er en terapeut, kan den være terapeutisk (Lieberman, 2025).
Likevel, alt tyder på at man i all overskuelig fremtid fortsatt kommer til å lene seg mest på den mellommenneskelige nærheten i det fysiske møtet (og i terapeutisk sammenheng) – hvor den (teknologifrie) stille stunden fortsatt har dypest grunn.
Referanser
Brin, D., Sorin, V., Vaid, A., Soroush, A., Glicksberg, B. S., Charney, A. W., Nadkarni, G. & Klang, E. (2023). Comparing ChatGPT and GPT-4 performance in USMLE soft skill assessments. Scientific Reports, 13(1), 16492. https://doi.org/10.1038/s41598-023-43436-9
Chollet, F. (2024, 20. desember). OpenAI o3 breakthrough high score on ARC-AGI-Pub. ARC Prize. https://arcprize.org/blog/oai-o3-pub-breakthrough
Godager, G. (2025). Etikk og KI i terapirommet – en håndskrevet tekst. Tidsskrift for Norsk psykologforening, 62(1), 48–50. https://www.psykologtidsskriftet.no/artikkel/2025as01ae-Etikk-og-KI-i-terapirommet-en-handskrevet-tekst
Goh, E., Gallo, R., Hom, J., Strong, E., Weng, Y., Kerman, H., Cool, J. A., Kanjee, Z., Parsons, A. S., Ahuja, N., Horvitz, E., Yang, D., Milstein, A., Olson, A. P. J., Rodman, A. & Chen, J. H. (2024). Large language model influence on diagnostic reasoning: A randomized clinical trial. JAMA Network Open, 7(10), e2 440 969. https://doi.org/10.1001/jamanetworkopen.2024.40 969
Jones, C. R. & Bergen, B. K. (2025). Large language models pass the Turing test. arXiv. https://arxiv.org/abs/2503.23674
Krumsvik, R. J. (2023a). Digital kompetanse i KI-samfunnet. Cappelen Damm Akademisk.
Krumsvik, R. J. (2023b). Kunstig intelligens, chatboter og de nære ting. Fagsnakk. https://www.fagsnakk.no/helse/kunstig-intelligens-chatboter-og-de-naere-ting/
Krumsvik, R. J. (2025a). Hva er Digital Learning Communities Artificial Intelligence Centre (DLCAIC)? https://www.uib.no/en/rg/dlc/44412/hva-er-digital-learning-communities-artificial-intelligence-centre-dlcaic
Krumsvik, R. J. (2025b). GPT-4’s capabilities for formative and summative assessments in Norwegian medicine exams—An intrinsic case study in the early phase of intervention. Frontiers in Medicine, 12, 1441747. https://doi.org/10.3389/fmed.2025.1441747
Krumsvik, R. J., Johansen, M. O. & Slettvoll, V. (2025). Artificial intelligence, health empowerment, and the general practitioner scheme. Digital Health, 11, 20552076251365006. https://doi.org/10.1177/20552076251365006
Krumsvik, R. J., Klock, K. & Bratteberg, M. H. (2025, in review). Symbiotisk intelligens i tanntraumediagnostikk – en eksplorativ casestudie av språkmodellen o3 som simulert «sparringpartner» for tannlegestudenter. https://www.linkedin.com/pulse/symbiotisk-intelligens-i-tanntraumediagnostikk-en-av-o3-krumsvik-dukic
Krumsvik, R. J. & Slettvoll, V. (2025a). Hverdagshelseteknologi og kunstig intelligens: Kan vi avlaste primærhelsetjenesten? Dagens Medisin. https://www.dagensmedisin.no/e-helse-kunstig-intelligens/hverdagshelseteknologi-og-kunstig-intelligens-kan-vi-avlaste-primaerhelsetjenesten/678714
Krumsvik, R. J. & Slettvoll, V. (2025b, in press). Artificial Intelligence and Health Empowerment in Rural Communities and Landslide-or Avalanche-Isolated Contexts: Real case at a fictitious location. Frontiers in Digital Health.
Li, H., Zhang, R., Lee, Y. C., Kraut, R. E. & Mohr, D. C. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. NPJ Digit Med., 6(1), 236. https://doi.org/10.1038/s41746-023-00979-5
Licklider, J. C. R. (1960). Man‑computer symbiosis. IRE Transactions on Human Factors in Electronics, HFE‑1(1), 4–11. https://doi.org/10.1109/THFE2.1960.4503259
Lieberman, H. (2025). I’m a Therapist. ChatGPT Is Eerily Effective. New York Times (1. August). https://www.nytimes.com/2025/08/01/opinion/chatgpt-therapist-journal-ai.html
Pentina, I., Hancock, T. & Xie, T. (2023). Exploring relationship development with social chatbots: A mixed-method study of replica. Computers in Human Behavior, 140, 107 600. https://doi.org/10.1016/j.chb.2022.107600
Singh, B., Olds, T., Brinsley, J., Dumuid, D., Virgara, R., Matricciani, L., Watson, A., Szeto, K., Eglitis, E., Miatke, A., Simpson, C. E. M., Vandelanotte, C. & Maher, C. (2023). Systematic review and meta-analysis of the effectiveness of chatbots on lifestyle behaviours. NPJ Digit. Med., 6, 118. https://doi.org/10.1038/s41746-023-00856-1
Zhong, W., Luo, J. & Zhang, H. (2024). The therapeutic effectiveness of artificial intelligence-based chatbots in alleviation of depressive and anxiety symptoms in short-course treatments: A systematic review and meta-analysis. Journal of Affective Disorders, 356, 459–469. https://doi.org/10.1016/j.jad.2024.04.057