15. april – Ettersom folk i økende grad henvender seg til kunstig intelligens for å få råd, ber noen amerikanske advokater sine klienter om ikke å behandle AI-chatbots som pålitelige fortrolige når deres frihet eller juridiske ansvar er på linjen.

Disse advarslene ble mer påtrengende etter at en føderal dommer i New York i år avgjorde at den tidligere administrerende direktøren i et konkursrat finansselskap ikke kunne beskytte AI-chattene sine fra påtalemyndigheter som forfølger anklager for verdipapirsvindel mot ham.

I kjølvannet av kjennelsen har advokater gitt beskjed om at samtaler med chatboter som Anthropics Claude og ‌OpenAIs ChatGPT kan kreves av påtalemyndigheten i straffesaker eller av rettsmotstandere i sivile saker.

«Vi sier til våre klienter: Du bør fortsette med forsiktighet her,» sa Alexandria Gutiérrez Swette, en advokat ved det New York-baserte advokatfirmaet Kobre & Kim.

Folks diskusjoner med deres advokater anses nesten alltid som konfidensielle i henhold til amerikansk lov. Men AI-chatboter er ikke advokater, og advokater instruerer klienter til å ta skritt som kan holde kommunikasjonen deres med AI-verktøy mer privat.

I e-poster til klienter og råd som er lagt ut på deres nettsider, har mer enn et dusin store amerikanske advokatfirmaer skissert råd til personer og selskaper for å redusere sjansene for at AI-chatter havner i retten.

Lignende advarsler vises også i ansettelsesavtaler fra enkelte firmaer med sine kunder. For eksempel uttalte det New York-baserte firmaet Sher Tremonte i en nylig klientkontrakt at å dele en advokats råd eller kommunikasjon med en chatbot kan slette den juridiske beskyttelsen kjent som advokat-klient-privilegiet ⁠som vanligvis skjermer kommunikasjon mellom advokater og deres klienter.

En rettslig kjennelse

Saken som bidro til å sette i gang alarmklokkene involverte Bradley Heppner, den tidligere styrelederen for det konkursrammede finansselskapet GWG Holdings og grunnleggeren av alternative aktivafirmaet Beneficent. Heppner ble siktet av føderale påtalemyndigheter i november i fjor for verdipapirer og elektronisk svindel, og erklærte seg ikke skyldig.

Heppner hadde brukt Anthropics chatbot Claude til å utarbeide rapporter om saken hans for å dele med advokatene hans, som senere hevdet at AI-utvekslingene hans burde holdes tilbake fordi de inneholdt detaljer fra advokatene knyttet til forsvaret hans.

Aktor hevdet at de hadde rett til å kreve materiale som Heppner laget med Claude fordi forsvarsadvokatene hans ikke var direkte involvert, og fordi advokat-klient-privilegium ikke gjelder chatbots.

Frivillig avsløring av informasjon fra en advokat til en tredjepart kan sette den vanlige juridiske beskyttelsen for disse advokatkommunikasjonene i fare.

Manhattan-baserte amerikanske distriktsdommer Jed Rakoff avgjorde i februar at Heppner må overlevere 31 dokumenter generert av Anthropics chatbot Claude relatert til saken.

Ingen advokat-klient-forhold eksisterer «eller kan eksistere mellom en AI-bruker og en plattform som Claude,» skrev Rakoff.

Advokater for Heppner svarte ikke umiddelbart på forespørsler om kommentar. En talsperson for det amerikanske advokatkontoret på Manhattan nektet å kommentere.

Domstoler sliter allerede med den økende bruken av kunstig intelligens av advokater og personer som representerer seg selv i rettssaker, noe som blant annet har ført til juridiske dokumenter som inneholder oppdiktede saker oppfunnet av AI.

Rakoffs avgjørelse var en viktig tidlig test i AI-chatbot-æraen for ‌grunnfjellsrettslig beskyttelse ⁠ som styrer kommunikasjon mellom advokat og klient og materiale forberedt for rettssaker.

Samme dag som Rakoffs kjennelse sa den amerikanske sorenskriverdommer Anthony Patti i Michigan at en kvinne som representerte seg selv i et søksmål hun reiste mot sitt tidligere selskap ikke måtte overlevere chattene sine med OpenAIs ChatGPT om ansettelseskravene som ble fremsatt i saken.

Patti behandlet kvinnens AI-chatter som en del av hennes eget personlige «arbeidsprodukt» for saken, snarere enn som samtaler med en person som hennes arbeidsgiver kunne forsøke å bruke til sitt forsvar.

ChatGPT og andre generative AI-programmer «er verktøy, ikke personer,» skrev Patti i sin ordre.

Personvern- og bruksvilkårene for både OpenAI og Anthropic sier at selskapene kan dele data som involverer brukerne deres med tredjeparter. Begge ​oppgir også at de krever at brukere konsulterer en kvalifisert ​profesjonell før de stoler på chatbotene deres for juridisk ⁠rådgivning.

Rakoff under en høring i februar i Heppners sak bemerket at Claude «uttrykkelig forutsatt at brukere ikke har noen forventning om personvern i sine innspill.»

Representanter for OpenAI og Anthropic svarte ikke umiddelbart på forespørsler om kommentarer.

Advokater raser for å sette rekkverk

Rådene fra advokater har variert fra å fortelle klienter om å velge sine AI-plattformer nøye til å foreslå spesifikt språk som skal brukes i chatbot-forespørsler.

Los Angeles-baserte O’Melveny & Myers og andre firmaer sa i kunderådgivning at «lukkede» AI-systemer designet for bedriftsbruk kan gi sterkere beskyttelse for juridisk kommunikasjon, selv om de sa at selv det forblir stort sett uprøvd.

Noen ⁠firmaer sa at AI-juridisk forskning er mer sannsynlig å være beskyttet av advokat-klient-privilegier når den utføres etter instruks fra en advokat. Hvis en advokat anbefaler bruk av kunstig intelligens, bør en person si det i chatbot-forespørselen, sa New York-hovedkvarteret, advokatfirmaet Debevoise & Plimpton, i en melding på sin nettside.

«Jeg gjør denne undersøkelsen i retning av advokat for X-søksmål,» foreslo firmaet folk å skrive.

Informasjon om bruk av kunstig intelligens er også i ferd med å bli vanlig i kontrakter som brukes av advokatfirmaer ⁠med klienter, ifølge en Reuters-gjennomgang av kontrakter som er lagt ut på et amerikansk regjeringsnettsted.

Sher Tremonte, som ofte representerer kriminelle tiltalte for hvitsnipp, sa i en ny kontrakt i mars: «Avsløring av privilegert kommunikasjon til en tredjeparts AI-plattform kan utgjøre en fraskrivelse av advokat-klient-privilegiet.»

Justin Ellis fra advokatfirmaet MoloLamken med hovedkontor i New York og andre advokater sa at de forventer at flere avgjørelser etter hvert vil avklare når AI-chatter kan brukes som bevis.

Inntil da sier advokater at en eldgammel antagelse fortsatt gjelder: Ikke snakk med andre enn advokaten din om saken din – inkludert AI.

Dele
Exit mobile version