Advokater over hele landet blir tatt for å bruke AI til å skrive sine juridiske truser – og unnskyldningene deres er enda mer kreative enn de falske sakene de angivelig har sitert.

Fra å skylde på hackere til å hevde at det er for vanskelig å veksle mellom vinduer, prøver advokater desperat å unngå sanksjoner for en flodbølge av AI-generert tull som tetter til rettssaker.

Men dommere er lei av å høre det, og en gruppe «juridiske årvåkne» sørger for at ingen av disse tabbene går ubemerket hen.

Et nettverk av advokater har sporet opp alle tilfeller av AI-misbruk de kan finne, og har samlet dem i en offentlig database som har økt til over 500 saker.

Databasen vedlikeholdt av den Frankrike-baserte advokaten og forsker Damien Charlotin avslører falske saksiteringer, falske sitater og de ansvarlige advokatene – i håp om å skamme profesjonen til å rydde opp i handlingen.

Antall saker fortsetter å vokse, sa Charlotin til The Post onsdag.

«[T]hans har akselerert akkurat i det øyeblikket jeg begynte å katalogisere disse sakene, fra kanskje en håndfull i måneden til to eller tre om dagen,» sa han i en e-post.

«Jeg tror dette vil fortsette å vokse en stund,» la Charlotin til.

Han sa at noen eksempler bare er feil, og «forhåpentligvis vil bevissthet redusere dem, men det er ikke gitt.»

I andre tilfeller blir AI misbrukt av «hensynsløse, slurvete advokater eller irriterende rettssaker», skrev forskeren.

«Jeg er redd det er lite som stopper dem,» la han til.

Amir Mostafavi, en advokat i Los Angeles-området, ble nylig ilagt en bot på 10 000 dollar etter å ha sendt inn en anke der 21 av 23 saksitater ble fullstendig oppfunnet av ChatGPT.

Hans unnskyldning? Han sa at han skrev anken selv og bare ba ChatGPT om å «prøve og forbedre den,» uten å vite at det ville legge til falske sitater.

«I mellomtiden kommer vi til å ha noen ofre, vi kommer til å ha noen skader, vi kommer til å ha noen vrak,» sa Mostafavi til CalMatters.

«Jeg håper dette eksemplet vil hjelpe andre til å ikke falle i hullet. Jeg betaler prisen.»

Ars Technica rapporterte at Innocent Chinweze, en New York City-basert advokat, nylig ble tatt for å innlevere en sak spekket med falske saker. Han sa at han hadde brukt Microsoft Copilot til jobben.

Så, i en bisarr omdreining, hevdet han at datamaskinen hans var blitt hacket og at skadevare var den virkelige skyldige.

Dommeren, Kimon C. Thermos, kalte unnskyldningen en «utrolig og ustøttet uttalelse».

Etter en lunsjpause endret Chinweze historien «dramatisk» igjen – denne gangen ved å hevde at han ikke visste at AI kunne finne på ting.

Chinweze ble bøtelagt $1000 og henvist til en klagekomité for oppførsel som «alvorlig impliserte hans ærlighet, pålitelighet og egnethet til å utøve advokatvirksomhet.»

En annen advokat, Alabama-advokaten James A. Johnson, skyldte sin «pinlige feil» på den store vanskeligheten med å bruke en bærbar datamaskin, ifølge Ars Technica.

Han sa at han var på sykehus med et sykt familiemedlem og under «tidspress og vanskelige personlige forhold».

I stedet for å bruke et juridisk forskningsverktøy med bar, valgte han en Microsoft Word-plugin kalt Ghostwriter Legal fordi, han hevdet, det var «kjedelig å veksle frem og tilbake mellom programmer på [his] bærbar PC med pekeplaten.»

Dommer Terry F. Moorer var lite imponert, og la merke til at Ghostwriter tydelig sa at den brukte ChatGPT.

Johnsons klient var enda mindre imponert, og sparket ham på stedet. Dommeren slo advokaten med en bot på 5000 dollar, og avgjorde at latskapen hans var «det samme som ond tro».

Slike saker «skader omdømmet til advokaten», sa tephen Gillers, en etikkprofessor ved New York University School of Law, til New York Times.

«Advokater overalt burde skamme seg over hva medlemmer av profesjonen deres gjør,» la han til.

Likevel fortsetter unnskyldningene for AI-feil å komme. En advokat beskyldte klienten sin for å ha hjulpet til med å utarbeide en problematisk innlevering. En annen hevdet at hun hadde «påloggingsproblemer med Westlaw-abonnementet.»

En advokat fra Georgia insisterte på at hun ved et uhell hadde sendt inn et grovt utkast.

Men straffene blir stadig brattere. Floridas advokat James Martin Paul ble angivelig rammet av en sanksjon på 85 000 dollar for «gjentatt, fornærmende, ond-tro oppførsel som ikke kan anerkjennes som legitim juridisk praksis og må avskrekkes».

Da han hevdet at boten var for høy, sa retten tilbake at det å unnlate argumentene hans «bare ville være til fordel for seriehallusinatorer».

Illinois-advokat William T. Panichi har blitt straffet minst tre ganger, fant Ars Technica.

Etter den første lovet han retten: «Jeg kommer ikke til å gjøre det igjen», like før han ble rammet av ytterligere to runder med sanksjoner en måned senere.

Dommere mister tålmodigheten.

«På dette punktet, for å være rett ut, lever enhver advokat som ikke er klar over at bruk av generative AI-plattformer for å gjøre juridisk forskning er å leke med ild i en sky,» skrev den amerikanske konkursdommeren Michael B. Slade.

En annen dommer, Nancy Miller, sprengte en advokat som hevdet at det bare tar «7,6 sekunder» å sjekke en sitering. Miller bemerket at advokaten selv hadde unnlatt å bruke de «dyrebare sekundene» for å sjekke hennes eget arbeid.

Som en Texas-dommer sa det: «Ved en av de travleste rettssakene i nasjonen er det knappe ressurser til å spare ut feilaktige AI-siteringer.»

Posten har søkt kommentarer fra Mostafavi, Chinweze, Johnson, Paul og Panichi.

Dele
Exit mobile version