15. april – Ettersom folk i økende grad henvender seg til kunstig intelligens for å få råd, ber noen amerikanske advokater sine klienter om ikke å behandle AI-chatbots som pålitelige fortrolige når deres frihet eller juridiske ansvar er på linjen.
Disse advarslene ble mer påtrengende etter at en føderal dommer i New York i år avgjorde at den tidligere administrerende direktøren i et konkursrat finansselskap ikke kunne beskytte AI-chattene sine fra påtalemyndigheter som forfølger anklager for verdipapirsvindel mot ham.
I kjølvannet av kjennelsen har advokater gitt beskjed om at samtaler med chatboter som Anthropics Claude og OpenAIs ChatGPT kan kreves av påtalemyndigheten i straffesaker eller av rettsmotstandere i sivile saker.
«Vi sier til våre klienter: Du bør fortsette med forsiktighet her,» sa Alexandria Gutiérrez Swette, en advokat ved det New York-baserte advokatfirmaet Kobre & Kim.
Folks diskusjoner med deres advokater anses nesten alltid som konfidensielle i henhold til amerikansk lov. Men AI-chatboter er ikke advokater, og advokater instruerer klienter til å ta skritt som kan holde kommunikasjonen deres med AI-verktøy mer privat.
I e-poster til klienter og råd som er lagt ut på deres nettsider, har mer enn et dusin store amerikanske advokatfirmaer skissert råd til personer og selskaper for å redusere sjansene for at AI-chatter havner i retten.
Lignende advarsler vises også i ansettelsesavtaler fra enkelte firmaer med sine kunder. For eksempel uttalte det New York-baserte firmaet Sher Tremonte i en nylig klientkontrakt at å dele en advokats råd eller kommunikasjon med en chatbot kan slette den juridiske beskyttelsen kjent som advokat-klient-privilegiet som vanligvis skjermer kommunikasjon mellom advokater og deres klienter.
En rettslig kjennelse
Saken som bidro til å sette i gang alarmklokkene involverte Bradley Heppner, den tidligere styrelederen for det konkursrammede finansselskapet GWG Holdings og grunnleggeren av alternative aktivafirmaet Beneficent. Heppner ble siktet av føderale påtalemyndigheter i november i fjor for verdipapirer og elektronisk svindel, og erklærte seg ikke skyldig.
Heppner hadde brukt Anthropics chatbot Claude til å utarbeide rapporter om saken hans for å dele med advokatene hans, som senere hevdet at AI-utvekslingene hans burde holdes tilbake fordi de inneholdt detaljer fra advokatene knyttet til forsvaret hans.
Aktor hevdet at de hadde rett til å kreve materiale som Heppner laget med Claude fordi forsvarsadvokatene hans ikke var direkte involvert, og fordi advokat-klient-privilegium ikke gjelder chatbots.
Frivillig avsløring av informasjon fra en advokat til en tredjepart kan sette den vanlige juridiske beskyttelsen for disse advokatkommunikasjonene i fare.
Manhattan-baserte amerikanske distriktsdommer Jed Rakoff avgjorde i februar at Heppner må overlevere 31 dokumenter generert av Anthropics chatbot Claude relatert til saken.
Ingen advokat-klient-forhold eksisterer «eller kan eksistere mellom en AI-bruker og en plattform som Claude,» skrev Rakoff.
Advokater for Heppner svarte ikke umiddelbart på forespørsler om kommentar. En talsperson for det amerikanske advokatkontoret på Manhattan nektet å kommentere.
Domstoler sliter allerede med den økende bruken av kunstig intelligens av advokater og personer som representerer seg selv i rettssaker, noe som blant annet har ført til juridiske dokumenter som inneholder oppdiktede saker oppfunnet av AI.
Rakoffs avgjørelse var en viktig tidlig test i AI-chatbot-æraen for grunnfjellsrettslig beskyttelse som styrer kommunikasjon mellom advokat og klient og materiale forberedt for rettssaker.
Samme dag som Rakoffs kjennelse sa den amerikanske sorenskriverdommer Anthony Patti i Michigan at en kvinne som representerte seg selv i et søksmål hun reiste mot sitt tidligere selskap ikke måtte overlevere chattene sine med OpenAIs ChatGPT om ansettelseskravene som ble fremsatt i saken.
Patti behandlet kvinnens AI-chatter som en del av hennes eget personlige «arbeidsprodukt» for saken, snarere enn som samtaler med en person som hennes arbeidsgiver kunne forsøke å bruke til sitt forsvar.
ChatGPT og andre generative AI-programmer «er verktøy, ikke personer,» skrev Patti i sin ordre.
Personvern- og bruksvilkårene for både OpenAI og Anthropic sier at selskapene kan dele data som involverer brukerne deres med tredjeparter. Begge oppgir også at de krever at brukere konsulterer en kvalifisert profesjonell før de stoler på chatbotene deres for juridisk rådgivning.
Rakoff under en høring i februar i Heppners sak bemerket at Claude «uttrykkelig forutsatt at brukere ikke har noen forventning om personvern i sine innspill.»
Representanter for OpenAI og Anthropic svarte ikke umiddelbart på forespørsler om kommentarer.
Advokater raser for å sette rekkverk
Rådene fra advokater har variert fra å fortelle klienter om å velge sine AI-plattformer nøye til å foreslå spesifikt språk som skal brukes i chatbot-forespørsler.
Los Angeles-baserte O’Melveny & Myers og andre firmaer sa i kunderådgivning at «lukkede» AI-systemer designet for bedriftsbruk kan gi sterkere beskyttelse for juridisk kommunikasjon, selv om de sa at selv det forblir stort sett uprøvd.
Noen firmaer sa at AI-juridisk forskning er mer sannsynlig å være beskyttet av advokat-klient-privilegier når den utføres etter instruks fra en advokat. Hvis en advokat anbefaler bruk av kunstig intelligens, bør en person si det i chatbot-forespørselen, sa New York-hovedkvarteret, advokatfirmaet Debevoise & Plimpton, i en melding på sin nettside.
«Jeg gjør denne undersøkelsen i retning av advokat for X-søksmål,» foreslo firmaet folk å skrive.
Informasjon om bruk av kunstig intelligens er også i ferd med å bli vanlig i kontrakter som brukes av advokatfirmaer med klienter, ifølge en Reuters-gjennomgang av kontrakter som er lagt ut på et amerikansk regjeringsnettsted.
Sher Tremonte, som ofte representerer kriminelle tiltalte for hvitsnipp, sa i en ny kontrakt i mars: «Avsløring av privilegert kommunikasjon til en tredjeparts AI-plattform kan utgjøre en fraskrivelse av advokat-klient-privilegiet.»
Justin Ellis fra advokatfirmaet MoloLamken med hovedkontor i New York og andre advokater sa at de forventer at flere avgjørelser etter hvert vil avklare når AI-chatter kan brukes som bevis.
Inntil da sier advokater at en eldgammel antagelse fortsatt gjelder: Ikke snakk med andre enn advokaten din om saken din – inkludert AI.













