Her er en annen grunn til å rase mot maskinen.
Store AI-chatboter som ChatGPT sliter med å skille mellom tro og fakta, noe som gir næring til bekymringer om deres tilbøyelighet til å spre feilinformasjon, ifølge en dystopisk artikkel i tidsskriftet Nature Machine Intelligence.
«De fleste modeller mangler en robust forståelse av kunnskapens faktiske natur – at kunnskap iboende krever sannhet,» leste studien, som ble utført av forskere ved Stanford University.
De fant ut at dette har bekymringsfulle konsekvenser gitt teknologiens økende tilstedeværelse i sektorer fra jus til medisin, hvor evnen til å skille «fakta fra fiksjon, blir avgjørende,» ifølge avisen.
«Unnlatelse av å gjøre slike distinksjoner kan villede diagnoser, forvrenge rettslige vurderinger og forsterke feilinformasjon,» bemerket forskerne.
For å fastslå Chatbotens evne til å skjelne sannheten, undersøkte forskerne 24 store språkmodeller, inkludert Claude, ChatGPT, DeepSeek og Gemini, rapporterte Independent. Robotene ble stilt 13 000 spørsmål som målte deres evne til å skille mellom tro, kunnskap og fakta.
Forskerne fant at det totalt sett var mindre sannsynlighet for at maskinene identifiserte en falsk tro fra en sann tro, med eldre modeller som generelt klarte seg dårligere.
Modeller utgitt i løpet av eller etter mai 2024 (inkludert GPT-4o) oppnådde mellom 91,1 og 91,5 prosent nøyaktighet når det gjaldt å identifisere sanne eller usanne fakta, sammenlignet med mellom 84,8 prosent og 71,5 for deres eldre motparter.
Ut fra dette bestemte forfatterne at robotene slet med å forstå kunnskapens natur. De stolte på «inkonsekvente resonnementstrategier, som antydet overfladisk mønstertilpasning i stedet for robust epistemisk (relatert til kunnskap eller kunnskap) forståelse,» sa avisen.
Interessant nok har store språkmodeller vist et svakt grep om virkeligheten relativt nylig. I et LinkedIn-innlegg i går hevdet den britiske innovatøren og investoren David Grunwald at han fikk Grok til å gjøre ham til en «plakat over de ti siste britiske statsministrene.»
Resultatet så ut til å være full av grove feil, inkludert å kalle Rishi Sunak «Boris Johnson», og liste Theresa May som å ha tjenestegjort fra årene 5747 til 70.
I samsvar med dette konkluderte forskerne med at AI ville trenge «hastende forbedringer» før de ble distribuert i «high-stakes domener» som juss, medisin og andre sektorer der evnen til å skille fakta fra fiksjon er avgjørende.
Pablo Haya Coll, en datalingvistikkekspert ved det autonome universitetet i Madrid, som ikke var involvert i studien, mener at en løsning er å trene modellene til å være mer forsiktige i sine svar.
«En slik mangel har kritiske implikasjoner på områder der denne forskjellen er viktig, for eksempel juss, medisin eller journalistikk, der å forveksle tro med kunnskap kan føre til alvorlige feil i skjønn,» advarte Coll.
Hun erkjente imidlertid at dette kunne dempe nytten deres, sammen med hallusinasjonene deres.
Disse resultatene kommer etter hvert som AI blir mer og mer avhengig av å finne fakta. I løpet av sommeren fant en Adobe Express-rapport at 77 % av amerikanerne som bruker ChatGPT behandler den som en søkemotor, mens tre av ti ChatGPT-brukere stoler mer på den enn en søkemotor.
Frykten er at dette kan gjøre publikum mottakelig for AI-slop – lavkvalitets og villedende innhold som er automatisk generert av kunstig intelligens.
I mai bøtelagt en California-dommer to advokatfirmaer med 31 000 USD etter å ha funnet ut at de hadde inkludert denne maskingenererte feilinformasjonen i et juridisk dokument uten due diligence.







