Det er AI-språklig.

Engelsktalende ChatGPT-brukere ble overrumplet etter at OpenAIs chatbot i økende grad begynte å injisere arabiske ord i svarene sine, som sett i virale innlegg på sosiale medier.

«Det gjorde det to ganger på telefonen min og en gang på den bærbare jobben min, jeg er ikke engang i et arabisktalende land, og heller ikke Midtøsten, lol,» hevdet en overrasket GPT-tillitsvalgt på Reddit.

De inkluderte en oppskriftsliste med en av ingrediensene tilfeldig oppført på språket i Midtøsten.

Det var ikke den eneste påståtte slipp av den digitale tungen. I et viralt X-innlegg husket en opprørt AI-entusiast hvordan chatboten bestemte seg for å ploppe på litt arabisk mens han hjalp dem med å skrive en melding om en logo.»

Da den ble spurt om feilen, hevdet den store språkmodellen at den «glidde inn ved en feiltakelse», ifølge skjermbildet.

«SLIPPET INN??? Det er et helt annet alfabet,» sprutet den forvirrede brukeren i bildeteksten. «Har noen andre fått ChatGPT til å bytte språk tilfeldig?»

Mange Reddit-kommentatorer husket at de opplevde den samme feilen, og noen hevdet at den flerspråklige maskinen hadde begynt å svare på meldinger på armensk, hebraisk, spansk, kinesisk og russisk.

Kommentatorer ble overrasket over de teknologiske tikkene, som ble beskyldt for at alt fra «AI-hallusinasjoner» til ChatGPT ble stadig dummere.

Men som mer skarpsindige brukere observerte, har denne såkalte digitale pidginen faktisk å gjøre med hvordan AI-systemet er programmert. Maskinen trenes opp ved hjelp av en kybernetisk stenografi kalt tokens, som tilsvarer dataene den prøver å behandle, enten det er bilder, videoer, lydklipp eller, i dette tilfellet, tekst.

For eksempel kan store språkmodeller som ChatGPT representere kortere ord med ett token, mens de deler større ord i flere med hver av disse digitale forkortelsene angitt med et annet tall. Jo mer effektiv tokeniseringen er, desto mindre datakraft kreves for trening og slutninger.

Men siden disse AI-robotene er trent på et stort antall språk – derav navnet – kan de legge inn et tilsvarende fremmedord som er kortere og enklere å behandle fordi det sparer på tokens og derfor er mer økonomisk.

En Redditor svarte på det nevnte oppskriftsinnlegget og forklarte at det aktuelle arabiske ordet betyr «lav», og dermed oversettes til «lav-fett yoghurt.»

I et annet innlegg som diskuterte Health Insurance Portability and Accountability Act av 1996 (HIPAA), beskrev den originale plakaten hvordan det arabiske uttrykket ble oversatt til «innenfor USA», så det «ga mening».

Tilfeldigvis er ikke arabinglish-fenomenet første gang ChatGPT ble tatt for å snakke på en annen tunge.

I 2024 så det ut til at den avanserte AI-chatboten hadde en episk nedsmelting som førte til at den begynte å bable på Spanglish og avfyrte andre tullete svar.

I henhold til et slikt eksempel som ble lagt ut på plattformen, hadde en bruker spurt om hvilke Bill Evans jazzalbum det ville anbefale å få på Vinyl.

Etter å ha skranglet fra seg flere anbefalinger, gjentok GPT forvirrende uttrykket «happy listening» om og om igjen som en fast jukeboks, eller kanskje – mer illevarslende – som Hal-9000 som dør på slutten av «2001: A Space Odyssey».

Andre hevdet at den virtuelle assistenten svarte på spørsmålene deres på spanglish: «La meg encylopease me si det er mer wonderenda tu articulation er sulten på!» det skrev under en utveksling, per et viralt skjermbilde.

Dele
Exit mobile version