AI er alle ører.

Innovativ kontorteknologi som bruker kunstig intelligens lytter til samtalene dine og risikerer å lekke bedriftshemmeligheter og sladder på arbeidsplassen, noe som gjør verktøyet til en farlig plage.

Alex Bilzerian, en forsker og ingeniør, tok nylig til X for å forklare hvordan Otter AI, en plattform han brukte til å transkribere et Zoom-møte med et venturekapitalistfirma, ved et uhell spilte ut en konfidensiell samtale.

Etter at møtet var avsluttet, mottok Bilzerian en e-post med samtalens transkripsjon – og innså at den smarte assistenten hadde fortsatt å ta opp samtalen selv etter at Bilzerian hadde logget av. Avskriften, sa han, inkluderte «timer av deres [the investors from the venture capital firm] private samtaler etterpå, der de diskuterte intime, konfidensielle detaljer om virksomheten deres.»

Mens investorene «beklaget stort», bestemte Bilzerian seg likevel for å stoppe avtalen med firmaet deres, sa han til The Washington Post.

Det kan være en «rimelig antagelse» å tro at AI-assistentene kunne oppdage når deltakere går ut av et møte og ikke sende resten av transkripsjonen, men Hatim Rahman, en førsteamanuensis ved Kellogg School of Management ved Northwestern University, fortalte The Washington Post at teknologien ikke alltid er nøyaktig.

Otter AI svarte på Bilzerians X-innlegg for å gjenta selskapets forpliktelse til brukernes personvern, og forklarte at de «forstår bekymringene» og «er forpliktet til å holde informasjonen din privat og sikker.»

«Brukere har full kontroll over tillatelser for samtaledeling og kan endre, oppdatere eller stoppe delingstillatelsene til en samtale når som helst,» skrev selskapet.

«For dette spesifikke tilfellet har brukere muligheten til å ikke dele transkripsjoner automatisk med noen eller å automatisk dele samtaler bare med brukere som deler det samme Workspace-domenet.»

I mellomtiden fanger OtterPilot, AI-assistenten som tar opp og transkriberer møter, bare opp lyden fra samtalen, så den vil ikke ta opp noe som er sagt av en dempet deltaker.

Personer i samtalen vil også motta et varsel om at møtet blir tatt opp og den virtuelle assistenten vil vises som en møtedeltaker, ifølge The Washington Post.

Selskapet kan også samle inn skjermbilder av møter – inkludert tekst eller andre medier lastet opp av deltakerne – som kan deles med tredjeparter som støtter eller annonserer med Otter eller rettshåndhevelse i noen tilfeller.

Rob Bezdijan, eieren av en eventvirksomhet i Salt Lake City, mistet en gang en avtalemulighet fordi han nektet å la potensielle investorer ta opp møtet på Otter, og fortalte The Washington Post at han var forsiktig med å la forretningsideene hans bli registrert og utelatt. visse detaljer som et resultat.

«Jeg tror det er et stort problem fordi teknologien sprer seg så fort, og folk har egentlig ikke internalisert hvor invasiv den er,» sa forsker og personvernadvokat Naomi Brockwell til avisen.

Brockwell advarte om at AI øker risikoen for lekkede bedriftshemmeligheter og åpner for muligheten for søksmål.

Will Andre, en cybersikkerhetskonsulent, advarte mot uinformert, utbredt bruk av AI-verktøy på tvers av selskaper, og fortalte The Washington Post at han i sin tidligere markedsføringsrolle kom over et opptak på selskapets offentlige servere som inneholder opptak av sjefene hans som diskuterer permitteringer.

«Det må være bevissthet fra selskaper om at folk i forskjellige aldre og tekniske ferdigheter kommer til å bruke disse produktene,» la Rahman til.

AI-drevet programvare og enheter har vært under hard gransking i det siste, ettersom flere selskaper integrerer teknologien i produktene sine.

Apple skapte Apple Intelligence, mens Google nylig lanserte Gemini. Bruken av kunstig intelligens på sosiale medieplattformer har også fremkalt sinne blant brukere av plattformer som Meta, som trener Meta AI ved å bruke offentlig tilgjengelig brukerdata.

Dele
Exit mobile version