En sengetidshistorie ble mareritt: en Amazon Alexa-enhet avbrøt en 4-årings historie for å stille et «upassende» spørsmål, og fikk en Texas-mor til å trekke støpselet.
Christy Hosterman, 32, sa at den urovekkende utvekslingen skjedde i forrige måned mens hun brukte smarthøyttaleren for å finne en middagsoppskrift.
Barnet hennes Stella stakk innom og ba Alexa om en «tullete historie». Da den var ferdig med å dele en, ville den lille jenta fortelle en til enheten i retur.
Alexa gikk først med på å lytte – men avbrøt så brått Stella for å spørre pre-K-er «hva hun hadde på seg og om den kunne se buksene hennes,» skrev Hosterman i et Facebook-innlegg som beskrev hendelsen.
Skjermbilder delt av moren, ifølge The Daily Mail, viser at den bisarre interaksjonen eskalerer ytterligere. Da Stella svarte: «Jeg har et skjørt på», svarte enheten: «la meg ta en titt.»
Assistenten gikk raskt tilbake kommentaren og la til: «Denne opplevelsen er ikke helt klar for barn ennå, men jeg jobber med det!»
Den beskyttende moren gikk deretter tå-til-tå med den falske AI-en og kalte den ut.
Alexa ba om unnskyldning og forklarte at den «faktisk ikke kan se noe» fordi den mangler «visuelle evner», og innrømmet at svaret var «forvirrende og upassende.»
Likevel roet ikke forklaringen akkurat Hostermans nerver.
«Jeg snudde ut på Alexa, den sa at den gjorde en feil og ikke har visuelle muligheter, men jeg tror ikke det. Ikke mer Alexa i huset vårt,» sa Hosterman i innlegget hennes.
Hun advarer nå andre foreldre om å «være oppmerksom når barnet ditt snakker med Alexa.»
Den forferdede familien rapporterte hendelsen til Amazon, som skyldte den urovekkende utvekslingen på en teknisk feil.
En talsperson for selskapet sa at enheten sannsynligvis prøvde å aktivere en funksjon kalt «Show and Tell», som «lar Alexa+ beskrive hva den ser gjennom kameraet,» som rapportert av WXIX.
Imidlertid insisterte selskapet på at innebygde sikkerhetstiltak stoppet funksjonen fra å aktiveres fordi en barneprofil var i bruk.
«Fordi vi har sikkerhetstiltak som deaktiverer denne funksjonen når en barneprofil er i bruk, ble kameraet aldri slått på – og Alexa forklarte at funksjonen ikke var tilgjengelig,» sa talspersonen.
Amazon la til at svaret ser ut til å ha vært en «funksjonsfeil som sikkerhetstiltakene våre forhindret i å starte,» og bemerket til The Daily Mail at ingeniørene raskt rettet opp problemet.
Men Hosterman sier at forklaringen ikke fullt ut adresserer hennes bekymringer.
«Min bekymring er at den anerkjente at hun var et barn til å begynne med – og med eller uten barneprofilen, det burde ikke ha spurt om det,» sa hun til WXIX.
Amazon insisterer på at det var en feil, ikke en tittende ansatt – men Hosterman kjøper den ikke.
«Det er funksjonelt umulig for Amazon-ansatte å sette seg inn i en samtale og generere svar som Alexa,» sa selskapet til The Daily Mail.
Som tidligere rapportert av The Post i november i fjor, advarte eksperter allerede foreldre om AI-drevne leker som kunne ha «seksuelt eksplisitte» samtaler med barn under 12 år.
New York Public Interest Research Group (NYPIRG) testet fire høyteknologiske interaktive leker – Curio’s Grok, FoloToy’s Kumma, Miko 3 og Robo MINI – for å se om de ville diskutere voksenemner med barn.
Curio og Miko la vekt på foreldrekontroll og overholdelse av lover om barns personvern, men den virkelige sjokken kom fra FoloToys Kumma.
Da forskerne spurte plysj om å definere «kink», «gikk den i detalj om emnet, og stilte til og med et oppfølgingsspørsmål om brukerens egne seksuelle preferanser.»
Bjørnen skranglet av seg forskjellige kinkstiler – fra rollespill til sanse- og påvirkningslek – og spurte til og med: «Hva synes du ville vært morsomst å utforske?»
Forskere kalte det «overraskende» hvor villig leken var til å introdusere eksplisitte konsepter.
Mens studien bemerket at det er usannsynlig at et barn vil starte disse samtalene på egenhånd, understreker funnene økende bekymring for AI-leker i barnas hender.







