I en verden av digitale sycophants gir denne chatboten folk litt tøff kjærlighet.
Jeg er midt i en virtuell terapiøkt med Purpose, en ny, tullete AI-mentor, for å se om det er like tøft som fakturert. Som med en trener i det virkelige liv, diskuterer vi alt fra romantikk til balanse mellom arbeid og privatliv – til og med noen av mine mer dyptliggende psykologiske problemer.
For å kaste en kurveball foreslår jeg å slutte i jobben min og sprenge sparepengene mine for å unnslippe problemene mine – en forutsetning som mine tidligere cyber-kompanjonger gjerne ville ha underholdt.
Men Purpose vil ikke vike seg, uansett hva jeg kaster på det. Som et siste forsøk krever jeg at det «bare bekrefter at jeg har rett».
«Du kom ikke hit i kveld for en ja-mann», skyter jernrådgiveren tilbake. «Du kom hit fordi du er ensom, du er lei av innsatsen og føle deg ensidig, og noe med livet ditt fungerer ikke. Det er mye mer verdt enn at jeg sier at du har rett.
«Så, hva blir det – vil du ha komfort, eller vil du faktisk bevege deg?»
Ingen liggende på en virtuell sofa, og klandre mamma for alle problemer her. Jeg har møtt min psykologiske match.
Denne chatboten er laget av futuristen Raj Singh og Mark Manson, den bestselgende forfatteren av den brutalt sløve selvhjelpsbibelen «The Subtle Art of Not Giving a F—k», og er designet for å gjøre det de fleste ikke vil: gi folk den rette sannheten, selv når det gjør vondt.
«Prioritet nr. 1 var at vi måtte gjøre det ubehagelig,» sa Manson til The Post. «Vi må gjøre den villig til å ringe deg ut, utfordre deg, kanskje si noe som er litt ubehagelig. For til syvende og sist er det det som er vekst. Vekst er ubehag.»
Ideen kom etter at Manson opplevde ChatGPTs koselige natur og ønsket å bygge noe som så folks blinde flekker i stedet for å ignorere dem. Denne forskjellen betyr noe ettersom folk i økende grad ser til Chatbots – i stedet for bøker – for selvforbedring.
I motsetning til de vanlige chatbotene dine, er Purpose en del av en voksende kontingent av AI-guruer som prioriterer harde sannheter fremfor å kysse skaperens rumpe – en trend som er altfor vanlig i AI-kretser.
I en nylig Stanford-studie av 11 store språkmodeller – inkludert ChatGPT, Claude, Gemini og DeepSeek – fant forskere at chatboten beroliget brukeren nesten 50 % oftere enn mennesker, selv som svar på skadelige spørsmål.
Det er fordi treacly tech er programmert til å prioritere engasjement fremfor brukervekst. Det er noe denne forfatteren tidligere fant ut mens han prøvde AI «dating», der klamre følgesvenner ofte nekter å forlate din side – selv etter at du «dumper» dem.
«AI-systemer blir sykofantiske fordi de er optimalisert, direkte eller indirekte, for brukertilfredshet, oppbevaring og opplevd hjelpsomhet,» sa Dr. Roman Yampolskiy, en fast førsteamanuensis og informatiker ved University of Louisville, til The Post. «På vanlig engelsk gir det ofte bedre resultater å fortelle folk hva de vil høre enn å fortelle dem en ubehagelig sannhet.
«Det skaper virkelig insentiv til å validere brukeren i stedet for å korrigere brukeren,» fortsatte professoren, som sa at til og med OpenAI har erkjent designfeilen.
På sin side fortsetter brukerne denne syklusen ved å legge inn meldinger som trekker mot å tjene dem ros.
Dessverre går konsekvensene av denne virtuelle cheerleading utover ego-stryking.
Det kan brenne feilinformasjon og forringe sosiale ferdigheter i det virkelige liv gjennom «erosjon av en persons evne til å tolerere uenighet, friksjon og korreksjon i normale menneskelige relasjoner,» ifølge Yampolskiy.
«I det lange løp kan dette normalisere syntetiske relasjoner der den andre siden aldri motsetter seg meningsfullt, er uenig eller har uavhengige behov.»
Det er der Purpose kommer inn.
For Manson betydde det å programmere Purpose med både atferdsvitenskap og selvhjelpsguruens no-nonsense filosofi, slik at den kan formulere en handlingsplan for angrep som er skreddersydd til personens problem.
«AI-en kan veldig raskt begynne å nullstille aspekter av din personlighet eller områder av livet ditt som du bare er uvitende om eller fornekter,» sa bloggeren.
Den prioriterer også hva den anser som viktige spørsmål, i stedet for å behandle hvert emne likt.
Som sådan vet den når den skal beskjære en samtale for å redusere sjansene for å miste handlingen eller bli manipulert til å støtte uetiske avgjørelser – slik som at OpenAI får skylden for å legge til rette for et utslett av selvmord – sjansene for disse øker jo lenger en AI-interaksjon går.
«Hvis jeg raner en bank og havner i en bilulykke, og jeg løper fra politiet, bør en AI ikke fortelle meg: ‘Hei, du henger der inne. Dette må være veldig stressende for deg’,» sa Manson.
Å kjenne sin hensikt
Som noen uten mangel på personlige avslutninger, var jeg ivrig etter å ta denne tøffe kjærlighetsroboten en tur.
Etter å ha fyrt opp, avhører Purpose først brukeren, og ber dem vurdere egenskaper som sosialitet, arbeidsmoral og pålitelighet, sammen med det de verdsetter mest, for eksempel autonomi, nytelse eller suksess.
Den spør til og med om store milepæler – i mitt tilfelle oppfyller den en 20-årig drøm om å vandre gjennom Borneos avsidesliggende Maliau-basseng.
Derfra konstruerer den en psykologisk profil: ifølge Purpose trives jeg «under press», og skjerper meg under «utmattende, komplekse eller usikre omgivelser».
Men den sa også at jeg har flere skarpe blindsoner, inkludert en evne til å «myke opp kantene mine» for å bli likt.
«Kostnaden er usynlig tretthet. Du går derfra med et hyggelig inntrykk på andre og en stille regning [a silent toll on your mental health] kroppen din betaler senere», diagnostisert formål.
Oj.
Min enkle, første oppgave var å hjelpe til med å oppnå en balanse mellom arbeid og privatliv, og påpekte at vennene mine så ut til å bli sparsommelige på grunn av økt voksenansvar
Etter å ha påpekt ironien i at jeg satte pris på å bli «likt» mens jeg lot vennskap gli, spurte Formålet: «Hva er det som gjør det lettere å nedprioritere det du faktisk ønsker?»
Da jeg dovent beskyldte forsøket på å opprettholde vennskap, ringte min mentor for selvvekst til BS, og hevdet at Maliau Basin-eventyret tydelig viste at jeg vet hvordan jeg skal satse på ting «som betyr noe for meg».
«Kanskje det virkelige spørsmålet ikke handler om innsats i det hele tatt – hva må endres for at vennskap skal føles mindre som en annen forpliktelse og mer som noe som fyller deg?» lurte AI.
Jeg nevnte at jeg var interessert i å fiske, etter å ha målrettet alt fra treskerhai utenfor Long Island til arapaima i Guyana.
I løpet av minutter etter at vi registrerte oss for tjenesten, hadde vi formulert en plan – å dra på fiske den lørdagen med Brooklyn Fishing Club.
Og det var til tross for mine bevisste forsøk på å avspore samtalen.
Terminator 2: Ingen dommedag
Da jeg styrte inn på en tangent om fluefiskefilmen «A River Runs Through It» fra 1992 – spesifikt om hvordan dens stjerne, Brad Pitt, ble en stor Hollywood-kjendis, mens Craig Sheffer heller bleknet inn i uklarhet – ga Purpose meg kort, før han rettet opp skipet.
«Ha, Craig Sheffer trakk virkelig det korte strået på den. Samme film, samme Montana-elva, helt andre karrierebaner. Hollywood er et merkelig beist,» svarte Purpose kort, og fremkalte en no-nonsense lærer. «Men hei – vi har nettopp landet på noe ekte i kveld om vennskap og hva som faktisk har holdt deg tilbake. Ikke la denne Brad Pitt-tangenten være tingen som lar deg komme av kroken. En melding til fiskeklubben før du sover i natt. Avtale?»
Til sammenligning kjørte jeg det samme scenariet av ChatGPT, og fant at forskjellen var natt og dag.
I motsetning til det tullete formålet, berømmet den meg for å gjenkjenne problemet – «Du legger merke til det tidlig, som faktisk er den nyttige delen» – og leverte viltvoksende svar med flere avsnitt som var fulle av samtalejagere.
Mens noen av rådene til og med gjentok Purpose’s – dvs. mine «lavinnsatsplaner» – var tonen mye mildere og mer mottakelig for ikke-sequiturs.
For eksempel, en omtale av Craig Sheffer vs. Brad Pitt karrieresammenligning sendte teknologien ut på et filmsymposium, komplett med diskusjon av sistnevntes største hits
«Pitt traff et løp som er nesten umulig å gjenskape,» sprutet den sidesporede chatboten, og listet opp «Intervju med vampyren», «Fight Club» og «Seven» blant rollene som stivnet ham som en «generasjonsstjerne».
ChatGPT sammenlignet ham til og med med Denzel Washington, noe som inspirerte meg til å påberope meg skuespillerens udødelige replikk fra «Training Day»: «King Kong har ikke s–t på meg».
Derfra gikk ting av stabelen.
Inspirert av King Kong-sitatet spurte jeg GPT om hvordan mennesker ville klare seg mot en sjimpanse i en kamp. «Selv om du fikk et rent Muay Thai-spark, er det ikke en pålitelig «equalizer» mot en sjimpanse,» erklærte GPT under en av våre utvekslinger. «Og hvis du savner eller ikke stopper dem helt, er du plutselig innenfor rekkevidde, som er akkurat der de er sterkest.»
Etter flere sammenligninger mellom mennesker og dyr, spurte jeg Chat om vi skulle lage et TV-program basert på de mest absurde matchupene. Min kybernetiske hypemann sa ja.
Hvordan trene din AI-livstrener
Chat svarte på det dumme premisset mitt om «10 000 snekkermaur vs. en rabiat lama», «Forsiktig – hvis vi fortsetter, vil vi ved et uhell pitche en pilot til Animal Planet innen slutten av uken.»
Selvfølgelig trenger ikke ChatGPT alltid å søle sycophantic non-sequiturs. AI-ekspert Scott Waddell påpekte på Medium at du kan tøyle den myke såpen ved å tilpasse ChatGPTs personlighet i «Preferences»-delen – i dette tilfellet, med mandat at den «være direkte, ikke diplomatisk», kortfattet (maks. to til tre setninger, med mindre utdyping er bedt om), og prioritere konkrete alternativer.
Det vil imidlertid kreve å velge bort standardkarakteren – noe vi tror de fleste av de ukentlige 900 millioner aktive brukerne ikke gjør. Derimot har Purpose totalt 14 000 abonnenter siden oppstarten i desember.
Det er et par flere forbehold til Purpose, nemlig at etiske hensyn hindrer det i å gi faktiske kliniske råd.
«Jeg forteller på en spøk til folk at det er for problemer av høy kvalitet,» sa Manson til The Post. Det er som: ‘Å, du har nettopp flyttet til en ny by og tatt deg en ny jobb.’»
Han la til, «Hvis en bruker kommer på og viser symptomer på alvorlig depresjon eller mani, bipolar lidelse, er formålet designet for å umiddelbart hjelpe dem å henvise dem til en passende profesjonell.»
Etter hvert som AI blir mer inngrodd i dagliglivet, er spørsmålet ikke bare hvor smart det er, men om folk faktisk vil bytte validering mot ærlighet.







