Perplexity AI enfrenta una demanda colectiva por presunto rastreo oculto

Se ha presentado una demanda colectiva contra Perplexity AI, uno de los motores de búsqueda impulsados por inteligencia artificial más destacados que han surgido en los últimos años. La denuncia acusa a la empresa de incrustar software de rastreo "indetectable" directamente en el código de su motor de búsqueda, lo que supuestamente permitiría transmitir las conversaciones de los usuarios a terceros, incluidos Meta y Google, todo ello sin el conocimiento ni el consentimiento del usuario.

La demanda pone de relieve una pregunta que cada vez más usuarios comienzan a hacerse: cuando escribes una pregunta en una herramienta de búsqueda con inteligencia artificial, ¿adónde van realmente esos datos?

Qué alega la demanda

Según la denuncia, la tecnología de rastreo no fue revelada a los usuarios y fue diseñada para operar sin ser detectada. Si las alegaciones se sostienen, esto significaría que las personas que utilizaban Perplexity AI para buscar información, hacer preguntas personales o explorar temas sensibles estaban compartiendo esas conversaciones sin saberlo con algunas de las mayores empresas de recopilación de datos de internet.

No se trata de un caso de letra pequeña enterrada en un documento de términos de servicio. La demanda afirma específicamente que el rastreo era "indetectable", lo que sugiere que los usuarios no tenían ninguna forma razonable de saber que sus datos estaban siendo recopilados y enviados.

Perplexity AI se ha posicionado como una alternativa más inteligente y directa a los motores de búsqueda tradicionales. Ese posicionamiento, combinado con la naturaleza de la IA conversacional (donde los usuarios suelen hacer preguntas detalladas y personales), hace que las presuntas violaciones de privacidad sean especialmente significativas.

Por qué esto importa más allá de una sola empresa

La demanda contra Perplexity AI no es un incidente aislado. Refleja un patrón más amplio que está emergiendo en toda la industria de la IA, donde la carrera por crear productos útiles ha superado en ocasiones el desarrollo de prácticas de privacidad claras y honestas.

Las herramientas de búsqueda con IA y los chatbots se diferencian de los motores de búsqueda tradicionales en un aspecto importante: las consultas tienden a ser más conversacionales y reveladoras. Las personas preguntan sobre síntomas de salud, situaciones financieras, problemas de pareja y opiniones políticas. Los datos generados por esas interacciones contienen un nivel de detalle personal que una simple búsqueda por palabras clave raramente alcanza.

Cuando esos datos son presuntamente compartidos con gigantes publicitarios como Meta y Google sin consentimiento, las implicaciones se extienden mucho más allá de una sola plataforma. Esas empresas cuentan con infraestructura consolidada para construir perfiles de comportamiento detallados a partir de datos exactamente como estos.

Los organismos reguladores han tomado nota. La demanda da impulso a las crecientes peticiones de leyes de privacidad más sólidas y aplicables que cubran específicamente a las empresas de IA, las cuales operan actualmente en un entorno regulatorio que aún no ha dado alcance a la tecnología.

Qué significa esto para ti

Si usas herramientas de búsqueda con IA o chatbots con regularidad, la conclusión principal de esta demanda es clara: no siempre puedes saber qué está ocurriendo con tus datos basándote únicamente en la imagen pública o el marketing de una empresa.

Varios pasos prácticos pueden ayudarte a reducir tu exposición:

  • Sé selectivo con lo que compartes. Trata las herramientas de búsqueda con IA como lo harías con una conversación pública. Evita introducir datos personales, financieros o médicos sensibles a menos que hayas revisado y comprendido la política de privacidad de la plataforma.
  • Consulta activamente las políticas de privacidad. Busca específicamente las secciones sobre el intercambio de datos con terceros. El lenguaje vago en torno a "socios" o "proveedores de servicios" suele ser una señal de prácticas amplias de compartición de datos.
  • Usa una VPN al navegar. Una VPN cifra tu tráfico de internet y enmascara tu dirección IP, lo que limita la cantidad de metadatos que se pueden recopilar sobre tus hábitos de navegación y tu ubicación, incluso cuando existe otro tipo de rastreo en la capa de aplicación.
  • Considera alternativas centradas en la privacidad. Para consultas sensibles, las herramientas que explícitamente no registran conversaciones ni comparten datos con terceros ofrecen una diferencia significativa en el perfil de riesgo.
  • Mantente informado sobre el desarrollo de la demanda colectiva. Si utilizaste Perplexity AI durante el período cubierto por la demanda, es posible que tengas legitimación como miembro de la clase.

El panorama general de la privacidad en la IA

La demanda contra Perplexity AI es un recordatorio de que la privacidad en la era de la IA requiere atención activa, no confianza pasiva. Las empresas construyen reputaciones por ser innovadoras, rápidas o incluso respetuosas con la privacidad, pero la realidad técnica de cómo sus productos gestionan los datos puede contar una historia diferente.

Ninguna herramienta o hábito por sí solo ofrece protección completa, pero combinar diferentes capas de defensa marca una diferencia real. Comprender qué datos estás generando, quién podría recibirlos y qué protecciones técnicas tienes disponibles te coloca en una posición mucho más sólida que simplemente confiar en que las plataformas que utilizas se comportan tal como prometen.

A medida que esta demanda avance por los tribunales, valdrá la pena observar tanto el resultado legal como la respuesta pública de Perplexity AI. El resultado podría sentar un precedente relevante sobre cómo las empresas de IA serán consideradas responsables de sus prácticas de datos en el futuro.