Perplexity AI е изправена пред колективен иск за предполагаемо скрито проследяване
Срещу Perplexity AI, един от по-известните AI-базирани търсачки, появили се през последните години, е подаден колективен иск. Жалбата обвинява компанията, че е вградила „неоткриваем" софтуер за проследяване директно в кода на търсачката си, като по този начин уж е позволявала потребителските разговори да бъдат предавани на трети страни, включително Meta и Google — всичко това без знанието или съгласието на потребителите.
Делото поставя под светлината на прожекторите въпрос, който все повече потребители започват да си задават: когато въведете въпрос в AI търсачка, накъде всъщност отиват тези данни?
Какво твърди искът
Според жалбата технологията за проследяване не е била разкрита на потребителите и е била проектирана да работи без да може да бъде открита. Ако обвиненията се потвърдят, това би означавало, че хората, използвали Perplexity AI за търсене на информация, задаване на лични въпроси или разглеждане на чувствителни теми, несъзнателно са виждали разговорите си споделяни с някои от най-големите компании за събиране на данни в интернет.
Това не е случай на скрит дребен шрифт в документ с условия за ползване. Искът конкретно твърди, че проследяването е било „неоткриваемо", което предполага, че потребителите не са имали разумен начин да разберат, че данните им се събират и препращат.
Perplexity AI се е позиционирала като по-умна и по-директна алтернатива на традиционните търсачки. Това позициониране, в съчетание с естеството на разговорния AI (при който потребителите често задават подробни, лични въпроси), прави предполагаемите нарушения на поверителността особено значими.
Защо това има значение отвъд една компания
Делото срещу Perplexity AI не е изолиран инцидент. То отразява по-широк модел, появяващ се в AI индустрията, при който надпреварата за изграждане на полезни продукти понякога е изпреварила развитието на ясни и честни практики за защита на личните данни.
AI търсачките и чатботовете се различават от традиционните търсачки по един важен начин: заявките са склонни да бъдат по-разговорни и разкриващи. Хората питат за здравословни симптоми, финансово положение, проблеми в отношенията и политически възгледи. Данните, генерирани от тези взаимодействия, носят ниво на лични подробности, което едно просто търсене по ключова дума рядко постига.
Когато тези данни се споделят с рекламни гиганти като Meta и Google без съгласие, последиците надхвърлят далеч границите на една единствена платформа. Тези компании разполагат с изградена инфраструктура за изграждане на подробни поведенчески профили именно от подобни данни.
Регулаторните органи са забелязали случая. Делото добавя импулс към нарастващите призиви за по-строги и по-приложими закони за защита на личните данни, специално обхващащи AI компаниите, които в момента работят в регулаторна среда, която не е напълно настигнала технологиите.
Какво означава това за вас
Ако редовно използвате AI-базирани търсачки или чатботове, основният извод от това дело е прост: не винаги можете да знаете какво се случва с вашите данни, основавайки се единствено на публичния имидж или маркетинга на дадена компания.
Няколко практически стъпки могат да помогнат за намаляване на излагането ви на риск:
- Бъдете избирателни относно това, което споделяте. Третирайте AI търсачките така, както бихте третирали публичен разговор. Избягвайте да въвеждате чувствителни лични, финансови или медицински данни, освен ако не сте прегледали и разбрали политиката за поверителност на платформата.
- Проверявайте активно политиките за поверителност. Търсете конкретно раздели относно споделянето на данни с трети страни. Неясният език около „партньори" или „доставчици на услуги" често сигнализира за широки практики на споделяне на данни.
- Използвайте VPN при сърфиране. VPN криптира интернет трафика ви и маскира IP адреса ви, което ограничава количеството метаданни, които могат да бъдат събирани за навиците ви при сърфиране и местоположението ви, дори когато на ниво приложение се извършва друго проследяване.
- Обмислете алтернативи, ориентирани към поверителността. За чувствителни заявки инструментите, които изрично не записват разговори и не споделят данни с трети страни, предлагат реална разлика в рисковия профил.
- Следете развитието на колективните искове. Ако сте използвали Perplexity AI през периода, обхванат от делото, може да имате основание като член на колектива.
По-широката картина на поверителността в AI
Делото срещу Perplexity AI е напомняне, че поверителността в ерата на AI изисква активно внимание, а не пасивно доверие. Компаниите изграждат репутации за иновативност, бързина или дори съзнателно отношение към поверителността, но техническите реалности на начина, по който техните продукти обработват данни, могат да разказват различна история.
Нито един единствен инструмент или навик не осигурява пълна защита, но наслагването на защитни мерки прави реална разлика. Разбирането на това какви данни генерирате, кой би могъл да ги получи и какви технически защити са налице ви поставя в много по-силна позиция, отколкото просто да се надявате, че платформите, които използвате, се държат така, както са рекламирани.
Докато делото се движи през съдилищата, ще си заслужава да следите както правния изход, така и публичната реакция на Perplexity AI. Резултатът може да постави значим прецедент за начина, по който AI компаниите ще бъдат държани отговорни за практиките си с данни занапред.




