Los usuarios de Anthropic enfrentan una nueva opción: optar por no compartir sus datos o compartir sus datos para el entrenamiento de AI.
Image Credits:Maxwell Zeff
Anthropic está realizando grandes cambios en cómo maneja los datos de los usuarios, requiriendo a todos los usuarios de Claude que decidan para el 28 de septiembre si quieren que sus conversaciones se utilicen para entrenar modelos de IA. Aunque la empresa nos dirigió a su publicación en el blog sobre los cambios en la política cuando se le preguntó sobre lo que motivó el movimiento, hemos formado nuestras propias teorías.
Pero primero, ¿qué está cambiando? Anteriormente, Anthropic no utilizaba los datos de chat de los consumidores para el entrenamiento de modelos. Ahora, la empresa quiere entrenar sus sistemas de IA en las conversaciones y sesiones de codificación de los usuarios, y ha dicho que extenderá la retención de datos a cinco años para aquellos que no opten por no hacerlo.
Esto es un cambio masivo. Anteriormente, los usuarios de los productos de consumo de Anthropic se les informaba que sus prompts y salidas de conversación se eliminarían automáticamente del backend de Anthropic dentro de 30 días “a menos que sea legalmente o por política requerido mantenerlos más tiempo” o si su entrada se marcaba como violación de sus políticas, en cuyo caso las entradas y salidas de un usuario podrían retenerse durante hasta dos años.
Por consumidor, nos referimos a que las nuevas políticas se aplican a los usuarios de Claude Free, Pro y Max, incluyendo aquellos que utilizan Claude Code. Los clientes empresariales que utilizan Claude Gov, Claude para Trabajo, Claude para Educación o acceso a la API no se verán afectados, lo que es similar a cómo OpenAI protege a los clientes empresariales de las políticas de entrenamiento de datos.
Entonces, ¿por qué está ocurriendo esto? En esa publicación sobre la actualización, Anthropic enmarca los cambios en torno a la elección del usuario, diciendo que al no optar por no hacerlo, los usuarios “nos ayudarán a mejorar la seguridad del modelo, haciendo que nuestros sistemas para detectar contenido perjudicial sean más precisos y menos propensos a flaggear conversaciones inofensivas.” Los usuarios “también ayudarán a que los futuros modelos de Claude mejoren en habilidades como la codificación, el análisis y la razón, lo que llevará a mejores modelos para todos los usuarios.”
En resumen, ayúdanos a ayudarte. Pero la verdad completa probablemente sea un poco menos desinteresada.
Al igual que todas las demás empresas de modelos de lenguaje grandes, Anthropic necesita datos más de lo que necesita que las personas tengan sentimientos borrosos sobre su marca. El entrenamiento de modelos de IA requiere grandes cantidades de datos conversacionales de alta calidad, y acceder a millones de interacciones de Claude debería proporcionar exactamente el tipo de contenido del mundo real que puede mejorar la posición competitiva de Anthropic frente a rivales como OpenAI y Google.
Más allá de las presiones competitivas del desarrollo de AI, los cambios también parecen reflejar cambios más amplios en las políticas de datos, ya que las empresas como Anthropic y OpenAI enfrentan un escrutinio creciente sobre sus prácticas de retención de datos. OpenAI, por ejemplo, está luchando actualmente contra una orden judicial que obliga a la empresa a retener todas las conversaciones de ChatGPT de los consumidores indefinidamente, incluyendo las conversaciones eliminadas, debido a una demanda presentada por The New York Times y otros editores.
En junio, el COO de OpenAI, Brad Lightcap, llamó a esto “una demanda exhaustiva y innecesaria” que “fundamentalmente conflictúa con los compromisos de privacidad que hemos hecho con nuestros usuarios.” La orden judicial afecta a los usuarios de ChatGPT Free, Plus, Pro y Team, aunque los clientes empresariales y aquellos con acuerdos de Retención de Datos Cero están protegidos.
Lo que es alarmante es cuánto confusión están creando todas estas políticas de uso cambiantes para los usuarios, muchos de los cuales permanecen ajenos a ellas.
En justicia, todo está cambiando rápidamente ahora, por lo que a medida que cambian las tecnologías, las políticas de privacidad también cambiarán. Pero muchas de estas cambios son bastante amplios y mencionados solo brevemente entre las noticias de las empresas. (No pensarías que los cambios de política del martes para los usuarios de Anthropic eran muy grandes noticias basándote en dónde la empresa colocó esta actualización en su página de prensa.)
Pero muchos usuarios no se dan cuenta de que las directrices a las que han acordado han cambiado porque el diseño prácticamente garantiza que así sea. La mayoría de los usuarios de ChatGPT continúan haciendo clic en los toggles de “eliminar” que no eliminan nada técnicamente. Mientras tanto, la implementación de Anthropic de su nueva política sigue un patrón familiar.
¿Cómo? Los nuevos usuarios elegirán su preferencia durante el registro, pero los usuarios existentes se encontrarán con un pop-up con “Actualizaciones de Términos y Políticas del Consumidor” en gran texto y un botón prominente “Aceptar” con un pequeño interruptor de permisos de entrenamiento por debajo en letra más pequeña – y automáticamente configurado en “On.”
Como se observó hoy por The Verge, el diseño levanta preocupaciones de que los usuarios puedan hacer clic rápidamente en “Aceptar” sin notar que están acordando compartir datos.
Mientras tanto, las apuestas para la conciencia del usuario no podrían ser más altas. Los expertos en privacidad han advertido durante mucho tiempo que la complejidad que rodea la IA hace que el consentimiento significativo de los usuarios sea casi inalcanzable. Bajo la Administración Biden, la Comisión Federal de Comercio incluso intervino, advirtiendo que las empresas de IA corren el riesgo de enfrentar acciones de cumplimiento si cambian sutilmente sus términos de servicio o política de privacidad, o si ocultan una revelación detrás de hipervínculos, en legalese o en letra pequeña.”
Si la comisión — ahora operando con solo tres de sus cinco comisionados — aún tiene su ojo en estas prácticas hoy es una pregunta abierta, una que hemos planteado directamente a la FTC.

