De kan virke som scener fra en slapstick-komedie, men virale robotulykker er ingen latterlig sak – eksperter advarer til og med at de kan varsle en apokalypse på «Terminator»-nivå.

En menneskelig danserobot opptrådte nylig for gjester på Haidilao hotpot-restauranten i San Jose, California, bare for å ende opp med å bokstavelig talt rive opp dansegulvet, velte servise, knuse tallerkener og sende spisepinner som flyr som Mr. Magoos maskindoppelgjenger.

Opptoget endte med at menneskelige ansatte dro den flaksende droiden ut døren mens forvirrede kunder så på.

Mens funksjonsfeilen utløste rabalder på nettet, advarer teknologer om at disse kybernetiske pratfallene kan signalisere noe mer alarmerende ettersom roboter blir stadig mer innebygd i hverdagen, ettersom disse maskinene av forbrukerkvalitet kan gå fra hverandre når gummien kommer på veien.

«Jeg tror disse hendelsene ofte blir behandlet som morsomme bare fordi den umiddelbare skaden var begrenset og konteksten var teatralsk,» sa Dr. Roman Yampolskiy, en fast førsteamanuensis og dataforsker ved University of Louisville, til The Post. «Folk ler av lave innsatser.»

Men, la AI-spesialisten til, «Fra et sikkerhetsperspektiv bør de også tas på alvor, fordi de avslører noe viktig: systemer som virker polerte og underholdende kan fortsatt oppføre seg uforutsigbart i den fysiske verden.»

Bare i løpet av de siste par månedene ble en handler i Kina sparket i lysken av en avansert Unitree-robot han kontrollerte, og en droide slo sjokkerende et barn under en dansedemo som gikk galt.

Hva om, spurte Yampolskiy, lignende funksjonsfeil oppstod rundt en baby, en sykehuspasient eller et medlem av offentligheten under en politiinteraksjon?»

«Hendelsen vil ikke bli sett på som komisk lettelse, men som en farlig systemfeil,» sa forskeren, som har skrevet over 100 artikler om den eksistensielle trusselen fra AI. «En feil i en dansende robot er for det meste pinlig. En feil i en sikkerhetsrobot, leveringssystem, selvkjørende plattform, medisinsk assistent eller industrimaskin kan skade mennesker, skade eiendom eller utløse kaskadefeil.»

Selv om det tilsynelatende var langsøkt, sa Yampolskiy at disse mindre hikkene skalerer seg til større problemer ettersom automatiseringsoffensiven gjør AI mer allestedsnærværende i sektorer som sikkerhet, helsevesen og til og med romantikk.

Mer enn 60 bombegrupper over hele USA og Canada bruker allerede Spot, Boston Dynamics’ hyperavanserte, 75-punds robo-hund for roller som spenner fra væpnede standoffs til gisselredninger, rapporterte Bloomberg.

Flere firmaer jobber også med å utvikle hyperrealistiske hjelperoboter for hjemmebruk, for eksempel Clone Robotics «Protoclone» – utpekt som «verdens første bipedale, muskuloskeletale android» – som angivelig kan gå, snakke og fullføre gjøremål.

«Når AI beveger seg fra skjermer til organer og institusjoner, øker kostnadene for feil dramatisk,» erklærte Yampolskiy.

De banebrytende automatene blir også sterkere og raskere.

Forskere i Sør-Korea har utviklet en kjemisk struktur for en kunstig muskel som potensielt kan tillate humanoide roboter å løfte 4000 ganger vekten, mens Kinas Bolt humanoid-robot kan løpe opp til 22 mph

Robotene kan også sparke baken vår.

Seerne var forståelig nok bekymret over en video av Unitrees neste generasjons humanoid-robot, H2 – utpekt som å ha både kommersiell og personlig bruk – som ble sett løfte en mindre droide opp fra bakken med et knestøt, og sende brystplaten i luften.

Hva ville skje hvis et menneske var på mottakersiden av et slikt treff? Slike uhell er ikke bare teoretiske. I februar slo en Unitree G1-robot ved et uhell en mann i nesen, noe som fikk ham til å blø, mens den prøvde å rette seg etter å ha falt under en forestilling i Kina.

«Med eksisterende forsterkningslæringspolicyer er roboten deres opplært til å gjøre alt som trengs for å reise seg etter et fall», skrev Eren Chen, som hevder å jobbe for robotikkfirmaet Booster Robotics, på X. «Under det restitusjonsforsøket sparket den noen i nesen, noe som forårsaket kraftige blødninger og mulig brudd.

«Dette bør behandles som et høyt prioritert sikkerhetsproblem for Unitree å fikse.»

Yampolskiy påpekte imidlertid, «menneskelige sikkerhetstiltak kan redusere risiko, men de eliminerer den ikke.»

«Bedre testing, fysiske begrensninger, geofencing, kill-switcher, tilsyn og strenge utrullingsstandarder hjelper alle,» erklærte han. «Men intet komplekst system er helt pålitelig, spesielt når det opererer i åpne virkelige miljøer.»

Det kommer med det teknologiske territoriet.

«Så, ja, noen ulykker er å forvente, akkurat som med biler eller andre kraftige verktøy,» sa han. «Forskjellen er at samfunnet må bestemme hvilket nivå av feil som er akseptabelt, og at terskelen bør være veldig lav for systemer som opererer rundt mennesker.»

Dessverre har ikke tekniske stormenn alltid vært fremme om potensielle fallgruver – eller i det minste ikke brukt dem som tegn på at de bør bremse rullen.

Robert Gruendel, en tidligere ingeniør for menneskelig robotikkfirmaet Figure AI, saksøkte selskapet fordi, han hevdet, de sparket ham for å advare om at robotene deres «var kraftige nok til å knekke en menneskeskalle,» rapporterte CNBC.

Imidlertid har Figure benektet påstandene, med representanter som sa at Gruendel ble «terminert for dårlig ytelse», og at hans «påstander er falske.»

Hvem er skyldig hvis en av disse kybernetiske Frankensteins går i stykker?

Yampolskiy mener at «hovedansvaret ligger hos selskapene som designer, distribuerer og tjener på disse systemene.»

«Utviklere, operatører og brukere kan hver bære en del, avhengig av fakta, men byrden bør falle tyngst på de som velger å slippe utilstrekkelig pålitelige systemer inn i den virkelige verden,» sa han. «Mere generelt er disse episodene tidlige advarselstegn.

«I dag blir de virale som rare eller morsomme klipp. I morgen, med mer dyktige og mer utbredte systemer, kan samme type feil bli diskutert når det gjelder skader, ansvar og offentlig sikkerhet.»

Dele
Exit mobile version