Perplexity AI отримала колективний позов через нібито приховане відстеження
Проти Perplexity AI, одного з найпомітніших пошукових систем на основі штучного інтелекту, що з'явилися останніми роками, подано колективний позов. У скарзі компанію звинувачують у впровадженні «непомітного» програмного забезпечення для відстеження безпосередньо в код пошукової системи, що нібито дозволяло передавати розмови користувачів третім сторонам, зокрема Meta та Google, — без відома та згоди користувачів.
Цей судовий процес привертає увагу до питання, яке дедалі частіше ставлять користувачі: коли ви вводите запит у пошуковий інструмент на основі штучного інтелекту, куди насправді потрапляють ці дані?
Що стверджується в позові
Відповідно до скарги, технологія відстеження не розкривалася користувачам і була розроблена так, щоб її не можна було виявити. Якщо ці твердження підтвердяться, це означатиме, що люди, які використовували Perplexity AI для пошуку інформації, задавання особистих запитань або дослідження чутливих тем, самі того не підозрюючи, мали свої розмови передані деяким із найбільших компаній зі збору даних в інтернеті.
Це не випадок дрібного шрифту, захованого в документі про умови надання послуг. У позові прямо зазначається, що відстеження було «непомітним», що свідчить про те, що користувачі не мали жодного розумного способу дізнатися про збір і пересилання їхніх даних.
Perplexity AI позиціонувала себе як розумнішу та більш пряму альтернативу традиційним пошуковим системам. Це позиціонування в поєднанні з природою розмовного штучного інтелекту — де користувачі часто ставлять детальні, особисті запитання — робить стверджувані порушення конфіденційності особливо серйозними.
Чому це важливо поза межами однієї компанії
Судовий позов проти Perplexity AI — не поодинокий випадок. Він відображає ширшу тенденцію, що формується в галузі штучного інтелекту, де гонитва за створенням корисних продуктів іноді випереджала розвиток чітких і чесних практик захисту конфіденційності.
Пошукові інструменти та чат-боти на основі штучного інтелекту відрізняються від традиційних пошукових систем в одному важливому аспекті: запити, як правило, носять більш розмовний і відвертий характер. Люди запитують про симптоми хвороб, фінансовий стан, проблеми у стосунках і політичні погляди. Дані, що генеруються в ході таких взаємодій, містять рівень особистих деталей, якого простий пошук за ключовими словами рідко досягає.
Коли ці дані нібито передаються рекламним гігантам — Meta та Google — без згоди, наслідки виходять далеко за межі однієї платформи. Ці компанії мають розвинену інфраструктуру для побудови детальних поведінкових профілів саме з таких точок даних.
Регулятори звернули на це увагу. Судовий позов додає імпульсу зростаючим вимогам щодо запровадження більш жорстких і реально застосовних законів про конфіденційність, які б конкретно охоплювали компанії у сфері штучного інтелекту, що наразі діють у регуляторному середовищі, яке ще не повністю наздогнало технології.
Що це означає для вас
Якщо ви регулярно користуєтесь пошуковими інструментами або чат-ботами на основі штучного інтелекту, головний урок із цього судового позову простий: ви не завжди можете знати, що відбувається з вашими даними, спираючись лише на публічний образ компанії або її маркетинг.
Кілька практичних кроків допоможуть зменшити ризики:
- Будьте вибірковими щодо того, чим ділитеся. Ставтеся до пошукових інструментів на основі штучного інтелекту так само, як до публічної розмови. Уникайте введення чутливих особистих, фінансових або медичних даних, якщо ви не ознайомилися з політикою конфіденційності платформи та не розібралися в ній.
- Активно перевіряйте політику конфіденційності. Шукайте конкретно розділи про передачу даних третім сторонам. Розпливчасті формулювання щодо «партнерів» або «постачальників послуг» часто свідчать про широкі практики передачі даних.
- Використовуйте VPN під час перегляду. VPN шифрує ваш інтернет-трафік і маскує вашу IP-адресу, що обмежує обсяг метаданих, які можна зібрати про ваші звички перегляду та місцезнаходження, навіть якщо на рівні застосунку відбувається інше відстеження.
- Розгляньте альтернативи, орієнтовані на конфіденційність. Для чутливих запитів інструменти, що явно не зберігають журнали розмов і не передають дані третім сторонам, пропонують суттєво інший рівень ризику.
- Стежте за розвитком колективного позову. Якщо ви користувалися Perplexity AI в період, що охоплюється позовом, ви можете мати підстави стати учасником класу позивачів.
Загальна картина конфіденційності в епоху штучного інтелекту
Судовий позов проти Perplexity AI нагадує, що конфіденційність в епоху штучного інтелекту вимагає активної уваги, а не пасивної довіри. Компанії формують репутацію інноваційних, швидких або навіть орієнтованих на конфіденційність, але технічна реальність того, як їхні продукти обробляють дані, може розповідати зовсім іншу історію.
Жоден окремий інструмент або звичка не забезпечує повного захисту, але поєднання кількох рівнів захисту справді має значення. Розуміння того, які дані ви генеруєте, хто може їх отримати та які технічні засоби захисту у вас є, ставить вас у значно сильнішу позицію, ніж проста надія на те, що платформи, якими ви користуєтеся, поводяться так, як заявляють.
У міру того як цей позов розглядатиметься в судах, варто уважно стежити як за юридичним результатом, так і за публічною реакцією Perplexity AI. Результат може створити важливий прецедент щодо того, як компанії у сфері штучного інтелекту нестимуть відповідальність за свої практики роботи з даними в майбутньому.




