Perplexity AI столкнулась с коллективным иском из-за предполагаемого скрытого отслеживания
Против Perplexity AI, одной из наиболее заметных поисковых систем на основе искусственного интеллекта, появившихся в последние годы, подан коллективный иск. В жалобе компанию обвиняют во внедрении «необнаруживаемого» шпионского программного обеспечения непосредственно в код поисковика, что якобы позволяло передавать пользовательские разговоры третьим сторонам, включая Meta и Google, — без ведома и согласия пользователей.
Этот иск привлекает внимание к вопросу, который всё больше людей начинают задавать себе: когда вы вводите вопрос в поисковый инструмент на основе ИИ, куда на самом деле отправляются эти данные?
Что утверждается в иске
Согласно жалобе, технология отслеживания не раскрывалась пользователям и была разработана таким образом, чтобы работать незаметно. Если обвинения подтвердятся, это будет означать, что люди, использовавшие Perplexity AI для поиска информации, личных вопросов или изучения чувствительных тем, неосознанно делились этими разговорами с некоторыми из крупнейших компаний по сбору данных в интернете.
Это не случай с мелким шрифтом в документе с условиями использования. В иске прямо утверждается, что отслеживание было «необнаруживаемым», что означает: у пользователей не было разумных способов узнать о сборе и пересылке их данных.
Perplexity AI позиционировала себя как более умную и прямолинейную альтернативу традиционным поисковым системам. Это позиционирование в сочетании с природой диалогового ИИ — где пользователи нередко задают подробные личные вопросы — делает предполагаемые нарушения конфиденциальности особенно значимыми.
Почему это важно за рамками одной компании
Иск против Perplexity AI — не единичный случай. Он отражает более широкую закономерность, складывающуюся в индустрии ИИ, где гонка за создание полезных продуктов порой опережает формирование чётких и честных практик в области конфиденциальности.
Поисковые инструменты и чат-боты на основе ИИ отличаются от традиционных поисковых систем одним важным обстоятельством: запросы, как правило, носят более разговорный и раскрывающий характер. Люди спрашивают о симптомах болезней, финансовом положении, проблемах в отношениях и политических взглядах. Данные, генерируемые в ходе таких взаимодействий, содержат уровень личных деталей, который редко достигается при простом поиске по ключевым словам.
Когда эти данные якобы передаются рекламным гигантам — таким как Meta и Google — без согласия пользователей, последствия выходят далеко за пределы одной платформы. У этих компаний существует налаженная инфраструктура для построения детализированных поведенческих профилей именно из таких данных.
Регуляторы обратили на это внимание. Иск придаёт новый импульс нарастающим призывам к принятию более жёстких и действенных законов о конфиденциальности, специально направленных на ИИ-компании, которые на сегодняшний день действуют в регуляторной среде, не успевшей в полной мере охватить эту технологию.
Что это значит для вас
Если вы регулярно используете поисковые инструменты или чат-боты на основе ИИ, главный вывод из этого иска прост: вы не всегда можете судить о судьбе своих данных, ориентируясь лишь на публичный образ компании или её маркетинг.
Несколько практических шагов помогут снизить вашу уязвимость:
- Будьте избирательны в том, чем делитесь. Относитесь к поисковым инструментам на основе ИИ так же, как к публичному разговору. Избегайте ввода конфиденциальных личных, финансовых или медицинских данных, если вы не ознакомились с политикой конфиденциальности платформы и не поняли её.
- Активно изучайте политику конфиденциальности. Обращайте особое внимание на разделы, касающиеся передачи данных третьим сторонам. Расплывчатые формулировки в отношении «партнёров» или «поставщиков услуг» нередко сигнализируют о широких практиках передачи данных.
- Используйте VPN при просмотре сайтов. VPN шифрует ваш интернет-трафик и скрывает ваш IP-адрес, что ограничивает объём метаданных, которые можно собрать о ваших привычках просмотра и местоположении, — даже когда отслеживание происходит на уровне приложения.
- Рассмотрите ориентированные на конфиденциальность альтернативы. Для чувствительных запросов инструменты, которые явным образом не ведут журналы разговоров и не передают данные третьим сторонам, предлагают существенно иной профиль риска.
- Следите за развитием коллективных исков. Если вы пользовались Perplexity AI в период, охватываемый иском, у вас может быть право на участие в качестве члена группы истцов.
Общая картина конфиденциальности в эпоху ИИ
Иск против Perplexity AI напоминает о том, что конфиденциальность в эпоху ИИ требует активного внимания, а не пассивного доверия. Компании создают репутацию инновационных, быстрых или даже ориентированных на конфиденциальность структур, однако техническая реальность обращения с данными в их продуктах может говорить о другом.
Ни один инструмент или навык не обеспечивает полной защиты, однако многоуровневый подход к защите реально меняет ситуацию. Понимание того, какие данные вы генерируете, кто может их получить и какие технические меры защиты у вас есть, даёт вам значительно более выгодное положение, нежели простая надежда на то, что используемые вами платформы ведут себя так, как заявлено.
По мере продвижения этого иска через судебные инстанции стоит следить как за правовым исходом, так и за тем, как Perplexity AI будет реагировать публично. Результат может создать значимый прецедент для привлечения ИИ-компаний к ответственности за их практики работы с данными в будущем.




