Anthropic exige verificación de identidad con nombre real para los usuarios de Claude
Anthropic ha introducido un requisito de verificación de identidad mediante el sistema 'Conozca a su cliente' (KYC) para algunos usuarios de su plataforma de IA Claude, solicitándoles que presenten documentos de identidad emitidos por el gobierno y selfies en tiempo real antes de acceder a ciertas funciones. Este movimiento marca un cambio significativo en la forma en que las plataformas de IA abordan la identidad de los usuarios, y tiene consecuencias reales para cualquiera que valore el anonimato en línea o dependa de herramientas como las VPN para acceder a servicios desde distintos países.
Qué exige realmente la política KYC de Anthropic
La nueva política solicita a los usuarios afectados de Claude que proporcionen dos cosas: un documento de identidad con foto emitido por el gobierno y una selfie en vivo capturada en tiempo real. Este tipo de verificación ya es habitual en los servicios financieros y en algunas plataformas con restricción de edad, pero representa un territorio relativamente nuevo para los servicios de chatbots de IA.
El requisito se aplica a los usuarios que intentan acceder a funciones específicas de la plataforma. Anthropic no ha detallado públicamente qué funciones exactamente activan el paso de verificación, pero el patrón es coherente con la forma en que otras plataformas han ido ampliando gradualmente las verificaciones de identidad a lo largo del tiempo, comenzando por los niveles de mayor riesgo o mayor acceso antes de extender el requisito de forma más amplia.
Para los usuarios en regiones donde Claude no cuenta con soporte oficial, este proceso de verificación crea una barrera adicional que es difícil o imposible de superar, independientemente de si utilizan una VPN o no.
Los usuarios de VPN y las soluciones geográficas se ven directamente afectados
El requisito KYC tiene un impacto desproporcionado en dos grupos en particular: las personas que usan VPN para acceder a Claude desde regiones no compatibles, y las personas que usan VPN específicamente para preservar su anonimato al interactuar con herramientas de IA.
Las VPN pueden enmascarar la dirección IP de un usuario y hacer que parezca que se conecta desde un país diferente, algo en lo que algunos usuarios confían para acceder a servicios no disponibles en su ubicación. Sin embargo, la verificación de identidad anula por completo esta solución alternativa. Una VPN cambia el lugar desde el que parece que te conectas; no cambia quién eres ni los documentos que puedes presentar.
Según el informe, la política de Anthropic puede resultar en el bloqueo de cuentas para los usuarios a quienes se detecte usando herramientas de elusión. Esto genera un conflicto directo para los usuarios en regiones restrictivas que históricamente han usado VPN tanto para acceder a servicios como para proteger su información personal de la vigilancia.
Una tendencia más amplia hacia el acceso a la IA vinculado a la identidad
Anthropic no actúa de forma aislada en este sentido. En todo el sector tecnológico, existe un movimiento claro y acelerado hacia la vinculación del acceso a identidades reales verificadas. Las plataformas de redes sociales, las aplicaciones financieras y ahora los servicios de IA tratan cada vez más el acceso anónimo como un riesgo que debe gestionarse, en lugar de una norma que debe preservarse.
Para las plataformas de IA en particular, existen razones comprensibles detrás de este cambio. Las preocupaciones por el uso indebido, la presión regulatoria y la responsabilidad por el contenido generado por IA están impulsando a las empresas hacia mecanismos de mayor responsabilidad. Saber quién utiliza una plataforma facilita la aplicación de los términos de servicio y la respuesta a las solicitudes legales.
Sin embargo, estos mismos mecanismos también implican que el comportamiento del usuario en la plataforma queda permanentemente vinculado a una identidad verificada. Cada conversación, cada consulta, cada pieza de contenido generado es ahora atribuible a una persona real con un documento gubernamental real en el expediente. Para muchos usuarios, eso representa una consideración de privacidad significativa que va mucho más allá de la simple seguridad de la cuenta.
Qué significa esto para usted
Si usa Claude o está pensando en usarlo, hay algunas cuestiones prácticas que conviene tener en cuenta.
En primer lugar, el requisito KYC no se aplica actualmente a todos los usuarios ni a todas las funciones. Si utiliza Claude en una región compatible para el acceso estándar, es posible que no se encuentre con este requisito de inmediato. Sin embargo, el precedente ha quedado establecido, y es razonable esperar que el requisito de verificación se amplíe con el tiempo.
En segundo lugar, si ha estado usando una VPN para acceder a Claude desde una región donde no está disponible oficialmente, debe saber que el uso continuado podría resultar en el bloqueo de su cuenta, especialmente si es identificado durante un paso de verificación.
En tercer lugar, este es un buen momento para reflexionar de forma más amplia sobre lo que comparte con las plataformas de IA y bajo qué condiciones. Los términos bajo los cuales accede a un servicio determinan qué datos se recopilan, cómo se almacenan y cómo podrían divulgarse en el futuro.
Puntos clave:
- Anthropic ahora exige un documento de identidad gubernamental y una selfie en vivo a algunos usuarios de Claude para acceder a ciertas funciones
- Los usuarios de VPN y aquellos en regiones no compatibles enfrentan el bloqueo de sus cuentas si son detectados usando herramientas de elusión
- Esta política vincula el uso de la IA a una identidad real verificada, lo que plantea consideraciones de privacidad a largo plazo
- La tendencia hacia los requisitos KYC en las plataformas de IA probablemente continuará y se expandirá
- Revise los términos de servicio de cualquier plataforma de IA que utilice y comprenda qué datos de identidad y uso están siendo recopilados
El avance hacia la identidad verificada en los servicios de IA refleja una tensión más amplia entre la responsabilidad de las plataformas y la privacidad de los usuarios. A medida que más servicios adopten políticas similares, los usuarios que se preocupan por mantener el control sobre sus datos personales deberán tomar decisiones más deliberadas sobre qué plataformas utilizan, bajo qué condiciones y qué información están dispuestos a entregar a cambio del acceso.




