Perplexity AI ramt af gruppesøgsmål over påstået skjult sporing

En gruppesøgsmålssag er blevet anlagt mod Perplexity AI, en af de mere fremtrædende AI-drevne søgemaskiner, der er dukket op i de seneste år. Klagen beskylder virksomheden for at have indlejret "udetekterbar" sporingssoftware direkte i sin søgemaschines kode, hvilket angiveligt har gjort det muligt at videresende brugersamtaler til tredjeparts virksomheder, herunder Meta og Google – alt sammen uden brugernes viden eller samtykke.

Retssagen sætter fokus på et spørgsmål, som flere og flere brugere begynder at stille: Når du skriver et spørgsmål ind i et AI-søgeværktøj, hvor ender disse data så egentlig?

Hvad sagen påstår

Ifølge klagen blev sporingsteknologien ikke oplyst til brugerne og var designet til at fungere uden at blive opdaget. Hvis påstandene holder stik, vil det betyde, at folk, der brugte Perplexity AI til at søge efter oplysninger, stille personlige spørgsmål eller udforske følsomme emner, ubevidst fik disse samtaler delt med nogle af internettets største dataindhøstningsvirksomheder.

Dette er ikke et tilfælde af skjult tekst med småt i et servicevilkårsdokument. Retssagen påstår specifikt, at sporingen var "udetekterbar", hvilket antyder, at brugerne ikke havde nogen rimelig mulighed for at vide, at deres data blev indsamlet og videresendt.

Perplexity AI har positioneret sig som et smartere og mere direkte alternativ til traditionelle søgemaskiner. Denne positionering, kombineret med karakteren af konversationsbaseret AI – hvor brugere ofte stiller detaljerede, personlige spørgsmål – gør de påståede krænkelser af privatlivets fred særligt betydningsfulde.

Hvorfor dette rækker ud over én virksomhed

Retssagen mod Perplexity AI er ikke en isoleret hændelse. Den afspejler et bredere mønster, der er ved at tegne sig på tværs af AI-branchen, hvor kapløbet om at bygge nyttige produkter til tider har overhalet udviklingen af klare og ærlige privatlivspraksisser.

AI-søgeværktøjer og chatbots adskiller sig fra traditionelle søgemaskiner på en vigtig måde: forespørgslerne har en tendens til at være mere samtalebaserede og afslørende. Folk spørger om helbredssymptomer, økonomiske forhold, relationsproblemer og politiske synspunkter. De data, der genereres af disse interaktioner, indeholder et niveau af personlige detaljer, som en simpel nøgleordssøgning sjældent gør.

Når disse data angiveligt deles med reklamegiganter som Meta og Google uden samtykke, strækker konsekvenserne sig langt ud over en enkelt platform. Disse virksomheder har etableret infrastruktur til at opbygge detaljerede adfærdsprofiler ud fra netop den slags datapunkter.

Myndighederne har lagt mærke til det. Retssagen giver yderligere fremdrift til de voksende krav om stærkere og mere håndhævelige privatlivslove, der specifikt dækker AI-virksomheder, som i øjeblikket opererer i et reguleringsmiljø, der ikke fuldt ud har indhentet teknologien.

Hvad dette betyder for dig

Hvis du jævnligt bruger AI-drevne søgeværktøjer eller chatbots, er den vigtigste lære fra denne retssag ligetil: Du kan ikke altid vide, hvad der sker med dine data ud fra en virksomheds offentlige image eller markedsføring alene.

Flere praktiske tiltag kan hjælpe med at reducere din eksponering:

  • Vær selektiv med, hvad du deler. Behandl AI-søgeværktøjer på samme måde som en offentlig samtale. Undgå at indtaste følsomme personlige, økonomiske eller medicinske oplysninger, medmindre du har gennemgået og forstået platformens privatlivspolitik.
  • Tjek privatlivspolitikker aktivt. Se specifikt efter afsnit om datadeling med tredjeparter. Vagt sprog om "partnere" eller "tjenesteudbydere" er ofte et tegn på vidtgående praksisser for datadeling.
  • Brug et VPN, når du browser. Et VPN krypterer din internettrafik og maskerer din IP-adresse, hvilket begrænser mængden af metadata, der kan indsamles om dine browservaner og placering – selv når der sker anden sporing på applikationsniveau.
  • Overvej privatlivsfokuserede alternativer. Til følsomme forespørgsler tilbyder værktøjer, der eksplicit ikke logger samtaler eller deler data med tredjeparter, en meningsfuld forskel i risikoprofil.
  • Hold dig opdateret om udviklingen i gruppesøgsmålet. Hvis du brugte Perplexity AI i den periode, der er dækket af retssagen, kan du muligvis deltage som medlem af gruppen.

Det større billede om AI og privatliv

Retssagen mod Perplexity AI er en påmindelse om, at privatliv i AI-æraen kræver aktiv opmærksomhed – ikke passiv tillid. Virksomheder opbygger omdømme for at være innovative, hurtige eller endda privatlivsbevidste, men de tekniske realiteter i, hvordan deres produkter håndterer data, kan fortælle en anden historie.

Intet enkelt værktøj eller ingen enkelt vane giver fuldstændig beskyttelse, men at lægge dine forsvar i lag gør en reel forskel. At forstå, hvilke data du genererer, hvem der muligvis modtager dem, og hvilke tekniske beskyttelser du har på plads, sætter dig i en langt stærkere position end blot at håbe, at de platforme, du bruger, opfører sig som lovet.

Efterhånden som denne retssag bevæger sig gennem retssystemet, vil det være værd at følge både det juridiske udfald og Perplexity AIs offentlige reaktion. Resultatet kan sætte en betydningsfuld præcedens for, hvordan AI-virksomheder fremover holdes ansvarlige for deres datapraksisser.