Hvorfor skrike inn i tomrommet når du kan snakke med maskinen?
I disse dager tyr teknologibesatte folk til kunstig intelligens for omtrent alt – jobbsøking, romantikk, shopping og, selvfølgelig, terapi.
Mens det å snakke med en menneskelig terapeut har blitt mer normalisert for alle, tyder ny forskning på at menn heller vil henvende seg til en chatbot for å sortere følelsene sine og bygge selvbevissthet.
I en undersøkelse blant amerikanske og britiske menn i alderen 22–45 år fant Use.AI at 78 % av respondentene følte seg mer komfortable med å diskutere personlige følelser med AI-verktøy enn med venner eller familie.
«Menn henvender seg ikke til AI fordi de er grunne eller ute av stand til intimitet. Det vi ser reflekterer noe utviklingsmessig,» sa den lisensierte kliniske psykologen Dr. Shahrzad Jalali til The Post.
Jalali delte at for noen brukere kan AI gi det menn historisk har blitt nektet: et trygt rom for å uttrykke seg.
«AI tilbyr noe psykologisk håndterbart: det er privat, det reagerer ikke synlig, det trekker seg ikke tilbake, det uttrykker ikke skuffelse,» forklarte eksperten. «For menn som forbinder sårbarhet med eksponering eller tap av kontroll, senker denne reduksjonen i risiko terskelen nok til å eksperimentere med emosjonelt språk.»
Denne risikoreduksjonen er kritisk blant menn, spesielt ettersom eksperter mistenker «cowboymentaliteten» med å ville «mane opp», eller følelsesmessig undertrykke, noe som står i direkte proporsjon med den mannlige ensomhetsepidemien og økende selvmordstall.
For menn som ønsker å få terapitærne våte, er anonymiteten til AI attraktiv.
«Anonymitet kan redusere skam og senke terskelen for avsløring. For noen menn kan det tjene som den første inngangen til følelsesmessig bevissthet,» sa Jalali.
Hun påpeker imidlertid at anonymitet kan bli en forsvarsstrategi.
«Hvis sårbarhet bare oppstår i rom uten mellommenneskelig risiko, lærer nervesystemet aldri at eksponering kan tolereres i ekte forhold,» forklarte hun til The Post.
Undersøkelsen avslørte videre at menn har en tendens til å se på AI-terapi som et utløp for å jobbe gjennom tankene sine før de deltar i dialog i den virkelige verden.
48 % av respondentene sa at AI tillot dem å trene på vanskelige samtaler i et miljø med lavt trykk, og 31% sa at denne forberedelsen oppmuntret dem til å starte samtaler de ellers ville unngå.
«Hvis en mann behandler sjalusi med AI, må neste trinn være en samtale med partneren. Hvis han øver på å be om unnskyldning i et chattevindu, må neste trinn være å be om unnskyldning ansikt til ansikt. Innsikt må flyttes fra skjerm til forhold; ellers blir det intellektuell selvbevissthet uten atferdsintegrasjon,» advarte Jalali.
Hun delte at AI i beste fall gjør healing tilgjengelig.
«Brukt med vilje, det [an AI therapist] kan redusere skambarrieren som hindrer menn i å gå inn i terapi i det hele tatt.»
Men hvis appellen til AI er forankret i personvern, kontroll og usynlighet, kan det forsterke giftige kulturelle betingelser som antyder at menns følelser bør forbli skjult for andre.
Og Jalali understreket at terapiprat fra en chatbot kan støtte, men aldri erstatte menneskelig interaksjon.
«Teknologi bør utvide menneskelig forbindelse, ikke erstatte den. Hvis AI blir den primære følelsesmessige fortrolige, løser vi ikke isolasjon, vi digitaliserer den.»
«Det er noe nevrologisk kraftig med å bli sett, hørt og følelsesmessig holdt av et annet menneskelig nervesystem. Når en terapeut forblir tilstede mens en klient uttrykker skam, når brudd oppstår og repareres i sanntid, reorganiseres nervesystemet. AI kan ikke gjenskape det,» la hun til.
Kritikere av AI-terapi hevder at, med mindre det er eksplisitt instruert om å ikke gjøre det, speiler teknologien ofte tonen og forsterker brukerens perspektiv. Forskere har funnet ut at roboter har en tendens til å folk-vennligst og bekrefte snarere enn å korrigere, noe som fører til at brukere vurderer dem mer gunstig.
«Det kan skape en tilbakemeldingssløyfe der en person føler seg validert, men ikke utvidet. Uten friksjon er det begrenset vekst,» sa Jalali, og delte at terapeuter tjener det doble formålet å validere følelser og utfordrende forvrengning.
AI har også en flekkete merittliste med gode råd: en studie fra 2025 fant store språkmodeller, eller LLM-er, som ChatGPT, kom med upassende og farlige uttalelser til folk som opplever vrangforestillinger, selvmordstanker, hallusinasjoner og OCD minst 20 % av tiden.
Mens over halvparten av respondentene rapporterte at AI-tilbakemeldinger hjalp dem med å identifisere og endre tilbakevendende mønstre i kommunikasjonen og følelsesmessige responser, mener Jalali at omfanget av denne refleksjonen er begrenset.
«AI reagerer stort sett innenfor rammen som presenteres for den. Den kan vurdere mønstre i de oppgitte dataene, men den oppdager ikke hva som unngås. Den oppdager ikke stillhet, holdning eller nøling. AI tar deg dit du leder den; en terapeut tar deg dit psyken din indikerer at du må gå.»














