Perplexity AI Bị Kiện Tập Thể Vì Cáo Buộc Theo Dõi Ẩn

Một vụ kiện tập thể đã được đệ trình chống lại Perplexity AI, một trong những công cụ tìm kiếm được hỗ trợ bởi AI nổi bật nhất xuất hiện trong những năm gần đây. Đơn kiện cáo buộc công ty nhúng phần mềm theo dõi "không thể phát hiện" trực tiếp vào mã nguồn công cụ tìm kiếm của mình, được cho là cho phép các cuộc trò chuyện của người dùng được truyền tới các bên thứ ba bao gồm Meta và Google, tất cả đều không có sự hiểu biết hay đồng ý của người dùng.

Vụ kiện này làm nổi bật một câu hỏi mà ngày càng nhiều người dùng bắt đầu đặt ra: khi bạn gõ một câu hỏi vào công cụ tìm kiếm AI, dữ liệu đó thực sự đi đâu?

Nội Dung Vụ Kiện

Theo đơn khởi kiện, công nghệ theo dõi này không được tiết lộ cho người dùng và được thiết kế để hoạt động mà không bị phát hiện. Nếu những cáo buộc này được chứng minh, điều đó có nghĩa là những người sử dụng Perplexity AI để tìm kiếm thông tin, đặt câu hỏi cá nhân, hoặc khám phá các chủ đề nhạy cảm đã vô tình để lộ các cuộc trò chuyện đó cho một số công ty thu thập dữ liệu lớn nhất trên internet.

Đây không phải là trường hợp thông tin bị che giấu trong điều khoản dịch vụ. Đơn kiện đặc biệt khẳng định rằng việc theo dõi là "không thể phát hiện", cho thấy người dùng không có cách hợp lý nào để biết dữ liệu của họ đang bị thu thập và chuyển tiếp.

Perplexity AI đã định vị mình là một lựa chọn thông minh hơn, trực tiếp hơn so với các công cụ tìm kiếm truyền thống. Sự định vị đó, kết hợp với bản chất của AI hội thoại — nơi người dùng thường đặt những câu hỏi chi tiết và mang tính cá nhân — khiến cho các vi phạm quyền riêng tư bị cáo buộc trở nên đặc biệt nghiêm trọng.

Tại Sao Điều Này Quan Trọng Hơn Chỉ Một Công Ty

Vụ kiện Perplexity AI không phải là một sự việc đơn lẻ. Nó phản ánh một xu hướng rộng hơn đang nổi lên trong ngành AI, nơi cuộc đua xây dựng các sản phẩm hữu ích đôi khi đã vượt trước sự phát triển của các thực hành bảo mật dữ liệu rõ ràng và trung thực.

Các công cụ tìm kiếm AI và chatbot khác với các công cụ tìm kiếm truyền thống theo một cách quan trọng: các truy vấn có xu hướng mang tính hội thoại và tiết lộ nhiều hơn. Người dùng hỏi về các triệu chứng sức khỏe, tình hình tài chính, vấn đề trong các mối quan hệ, và quan điểm chính trị. Dữ liệu được tạo ra từ những tương tác đó mang mức độ chi tiết cá nhân mà một tìm kiếm từ khóa đơn giản hiếm khi có được.

Khi dữ liệu đó bị cáo buộc chia sẻ với các gã khổng lồ quảng cáo như Meta và Google mà không có sự đồng ý, hậu quả sẽ lan rộng ra ngoài một nền tảng duy nhất. Những công ty này đã xây dựng cơ sở hạ tầng để tạo ra hồ sơ hành vi chi tiết từ chính những điểm dữ liệu như thế này.

Các cơ quan quản lý đã chú ý đến vấn đề này. Vụ kiện bổ sung thêm động lực cho những lời kêu gọi ngày càng tăng về các luật bảo mật mạnh hơn, có thể thực thi được, đặc biệt áp dụng cho các công ty AI — vốn hiện đang hoạt động trong môi trường pháp lý chưa theo kịp với công nghệ.

Điều Này Có Ý Nghĩa Gì Đối Với Bạn

Nếu bạn thường xuyên sử dụng các công cụ tìm kiếm hoặc chatbot được hỗ trợ bởi AI, bài học quan trọng nhất từ vụ kiện này rất rõ ràng: bạn không thể luôn biết điều gì đang xảy ra với dữ liệu của mình chỉ dựa vào hình ảnh công khai hay hoạt động tiếp thị của một công ty.

Một số bước thực tế có thể giúp giảm thiểu rủi ro cho bạn:

  • Hãy chọn lọc những gì bạn chia sẻ. Hãy đối xử với các công cụ tìm kiếm AI như một cuộc trò chuyện nơi công cộng. Tránh nhập các thông tin cá nhân, tài chính hay y tế nhạy cảm trừ khi bạn đã xem xét và hiểu rõ chính sách bảo mật của nền tảng.
  • Chủ động kiểm tra chính sách bảo mật. Hãy tìm đặc biệt các mục về chia sẻ dữ liệu với bên thứ ba. Ngôn ngữ mơ hồ xung quanh "đối tác" hay "nhà cung cấp dịch vụ" thường là dấu hiệu của các thực hành chia sẻ dữ liệu rộng rãi.
  • Sử dụng VPN khi duyệt web. VPN mã hóa lưu lượng internet của bạn và che giấu địa chỉ IP, giúp hạn chế lượng siêu dữ liệu có thể được thu thập về thói quen duyệt web và vị trí của bạn, ngay cả khi việc theo dõi khác đang xảy ra ở tầng ứng dụng.
  • Cân nhắc các lựa chọn thay thế tập trung vào quyền riêng tư. Đối với các truy vấn nhạy cảm, các công cụ rõ ràng không lưu lại cuộc trò chuyện hoặc chia sẻ dữ liệu với bên thứ ba mang lại sự khác biệt có ý nghĩa về mức độ rủi ro.
  • Theo dõi sát sao các diễn biến của vụ kiện tập thể. Nếu bạn đã sử dụng Perplexity AI trong khoảng thời gian được đề cập trong vụ kiện, bạn có thể có tư cách là thành viên của nhóm nguyên đơn.

Bức Tranh Toàn Cảnh Về Quyền Riêng Tư Trong AI

Vụ kiện Perplexity AI là lời nhắc nhở rằng quyền riêng tư trong kỷ nguyên AI đòi hỏi sự chú ý chủ động, chứ không phải sự tin tưởng thụ động. Các công ty xây dựng danh tiếng về sự đổi mới, tốc độ, hay thậm chí ý thức về quyền riêng tư, nhưng thực tế kỹ thuật về cách các sản phẩm của họ xử lý dữ liệu có thể kể một câu chuyện khác.

Không có một công cụ hay thói quen đơn lẻ nào cung cấp sự bảo vệ hoàn toàn, nhưng việc tạo ra nhiều lớp phòng thủ sẽ tạo ra sự khác biệt thực sự. Hiểu rõ bạn đang tạo ra dữ liệu gì, ai có thể nhận được nó, và bạn có những biện pháp bảo vệ kỹ thuật nào sẽ đặt bạn vào vị thế mạnh hơn nhiều so với việc chỉ hy vọng rằng các nền tảng bạn sử dụng đang hành xử đúng như những gì họ quảng cáo.

Khi vụ kiện này tiến triển qua các phiên tòa, sẽ rất đáng chú ý cả kết quả pháp lý lẫn cách Perplexity AI phản hồi công khai. Kết quả có thể tạo ra một tiền lệ có ý nghĩa cho cách các công ty AI phải chịu trách nhiệm về thực hành dữ liệu của họ trong tương lai.