Perplexity AI čelí hromadné žalobě kvůli údajnému skrytému sledování
Proti Perplexity AI, jednomu z nejvýznamnějších vyhledávačů s umělou inteligencí, které v posledních letech vznikly, byla podána hromadná žaloba. Stížnost obviňuje společnost z vložení „nezjistitelného" sledovacího softwaru přímo do kódu vyhledávače, přičemž tento software měl údajně umožňovat přenos uživatelských konverzací třetím stranám, včetně Meta a Google, a to bez vědomí nebo souhlasu uživatelů.
Žaloba upozorňuje na otázku, kterou si začíná klást stále více uživatelů: když zadáte dotaz do vyhledávacího nástroje s umělou inteligencí, kam tato data vlastně putují?
Co žaloba tvrdí
Podle stížnosti nebyla sledovací technologie uživatelům prozrazena a byla navržena tak, aby fungovala bez možnosti odhalení. Pokud by se tato obvinění potvrdila, znamenalo by to, že lidé používající Perplexity AI k vyhledávání informací, pokládání osobních otázek nebo zkoumání citlivých témat nevědomky sdíleli tyto konverzace s některými z největších společností zabývajících se sběrem dat na internetu.
Nejde o případ drobného písma skrytého v dokumentu s podmínkami služby. Žaloba výslovně tvrdí, že sledování bylo „nezjistitelné", což naznačuje, že uživatelé neměli žádný rozumný způsob, jak zjistit, že jejich data jsou shromažďována a předávána dál.
Perplexity AI se prezentovala jako chytřejší a přímější alternativa k tradičním vyhledávačům. Toto postavení, v kombinaci s povahou konverzační umělé inteligence (kde uživatelé často kladou podrobné, osobní otázky), činí údajná porušení ochrany soukromí obzvláště závažnými.
Proč tato kauza přesahuje rámec jedné společnosti
Žaloba na Perplexity AI není izolovaným incidentem. Odráží širší vzorec, který se v odvětví umělé inteligence projevuje – závod o vytváření užitečných produktů někdy předběhl vývoj jasných a poctivých zásad ochrany soukromí.
Vyhledávací nástroje a chatboti s umělou inteligencí se od tradičních vyhledávačů liší v jednom důležitém ohledu: dotazy bývají osobnější a sdělnější. Lidé se ptají na zdravotní příznaky, finanční situaci, vztahové problémy a politické názory. Data vzniklá z těchto interakcí obsahují úroveň osobních detailů, které jednoduché vyhledávání pomocí klíčových slov jen zřídka dosahuje.
Pokud jsou tato data údajně sdílena bez souhlasu s reklamními giganty, jako jsou Meta a Google, dosah tohoto problému přesahuje jedinou platformu. Tyto společnosti disponují zavedenou infrastrukturou pro vytváření podrobných behaviorálních profilů právě z takových datových bodů.
Regulační orgány si toho všimly. Žaloba přidává váhu rostoucím výzvám k přijetí silnějších a lépe vymahatelných zákonů na ochranu soukromí, které by se konkrétně vztahovaly na společnosti v oblasti umělé inteligence, jež v současnosti působí v regulačním prostředí, které za technologickým vývojem plně nezaostalo.
Co to znamená pro vás
Pokud pravidelně používáte vyhledávací nástroje nebo chatboty s umělou inteligencí, je hlavní poučení z této žaloby jednoduché: nemůžete vždy vědět, co se s vašimi daty děje, jen na základě veřejného image společnosti nebo marketingu.
Několik praktických kroků může pomoci snížit vaše riziko:
- Buďte selektivní v tom, co sdílíte. Přistupujte k vyhledávacím nástrojům s umělou inteligencí stejně jako k veřejnému rozhovoru. Nezadávejte citlivé osobní, finanční ani zdravotní údaje, pokud jste si nepřečetli a neporozuměli zásadám ochrany soukromí dané platformy.
- Aktivně kontrolujte zásady ochrany soukromí. Hledejte konkrétně sekce týkající se sdílení dat s třetími stranami. Vágní jazyk ohledně „partnerů" nebo „poskytovatelů služeb" často signalizuje rozsáhlé praktiky sdílení dat.
- Při prohlížení internetu používejte VPN. VPN šifruje váš internetový provoz a maskuje vaši IP adresu, čímž omezuje množství metadat, která lze shromažďovat o vašich návycích při prohlížení a vaší poloze, a to i v případě, že na aplikační vrstvě dochází k jinému sledování.
- Zvažte alternativy zaměřené na ochranu soukromí. Pro citlivé dotazy nabízejí nástroje, které výslovně neukládají konverzace ani nesdílejí data s třetími stranami, smysluplný rozdíl v rizikovém profilu.
- Sledujte vývoj hromadných žalob. Pokud jste Perplexity AI používali v období, které žaloba pokrývá, můžete mít postavení člena skupiny žalobců.
Širší pohled na soukromí v oblasti umělé inteligence
Žaloba na Perplexity AI připomíná, že ochrana soukromí v éře umělé inteligence vyžaduje aktivní pozornost, nikoli pasivní důvěru. Společnosti si budují reputaci jako inovativní, rychlé nebo dokonce dbající na ochranu soukromí, ale technická realita toho, jak jejich produkty nakládají s daty, může vyprávět jiný příběh.
Žádný jediný nástroj ani zvyk neposkytuje úplnou ochranu, ale vrstvení obraných opatření skutečně přináší rozdíl. Porozumění tomu, jaká data generujete, kdo je může obdržet a jaká technická ochrana je na místě, vás staví do mnohem silnější pozice, než abyste jen doufali, že platformy, které používáte, se chovají tak, jak slibují.
Jak tato žaloba postupuje soudním řízením, bude stát za to sledovat jak právní výsledek, tak veřejnou reakci Perplexity AI. Výsledek by mohl stanovit důležitý precedens pro to, jak budou společnosti zabývající se umělou inteligencí v budoucnu odpovědné za své datové praktiky.




