Anthropic acaba de actualizar su nueva política. Foto: GK Images . |
El 28 de agosto, la empresa de inteligencia artificial Anthropic anunció una actualización de sus Términos de Servicio y Política de Privacidad. Los usuarios ahora pueden optar por que sus datos se utilicen para mejorar Claude y reforzar la protección contra abusos como estafas y fraudes.
Este aviso se implementará en el chatbot a partir del 28 de agosto. Los usuarios tienen un mes para aceptar o rechazar los términos. Las nuevas políticas entrarán en vigor inmediatamente después de su aceptación. Después del 28 de septiembre, los usuarios deberán aceptar las condiciones para seguir usando Claude.
Según la empresa, las actualizaciones buscan ofrecer modelos de IA más potentes y útiles. Ajustar esta opción es sencillo y se puede hacer en cualquier momento en la configuración de privacidad.
Estos cambios se aplican a los planes Claude Free, Pro y Max, que incluyen Claude Code, la herramienta de programación de Anthropic. No se aplicarán los servicios cubiertos por las Condiciones Comerciales, como Claude for Work, Claude Gov y Claude for Education, ni el uso de API, incluso a través de terceros como Amazon Bedrock y Vertex AI de Google Cloud.
Al participar, según Anthropic en su blog, los usuarios contribuirán a mejorar la seguridad del modelo, aumentando su capacidad para detectar con precisión contenido dañino y reduciendo el riesgo de marcar por error conversaciones inofensivas. Las futuras versiones de Claude también se mejorarán con habilidades como programación, análisis y razonamiento.
Es importante que los usuarios tengan control total sobre sus datos y puedan permitir o no que la plataforma los use en una ventana emergente. Las nuevas cuentas pueden configurar esto opcionalmente durante el proceso de registro.
![]() |
Ventana emergente de nuevos términos en el chatbot. Foto: Anthropic. |
El periodo de conservación de datos se ha ampliado a cinco años, lo que aplica a conversaciones o sesiones de programación nuevas o continuadas, así como a las respuestas del chatbot. Los datos eliminados no se utilizarán para entrenar el modelo en el futuro. Si los usuarios no aceptan proporcionar datos para el entrenamiento, se les aplicará la política de conservación actual de 30 días.
Al explicar la política, Anthropic afirmó que los ciclos de desarrollo de la IA suelen durar años, y que mantener la consistencia de los datos durante todo el proceso de entrenamiento también ayuda a que los modelos se mantengan consistentes. Una mayor retención de datos también mejora los clasificadores, sistemas utilizados para identificar comportamientos abusivos, y permite detectar patrones dañinos.
Para proteger la privacidad del usuario, utilizamos una combinación de herramientas y procesos automatizados para filtrar o enmascarar datos confidenciales. No vendemos los datos de los usuarios a terceros, escribió la empresa.
Anthropic es a menudo citada como una de las empresas líderes en IA segura. Anthropic ha desarrollado una metodología llamada IA Constitucional, que establece principios y directrices éticos que los modelos deben seguir. Anthropic también es una de las empresas que ha firmado los Compromisos de IA Segura con los gobiernos de EE. UU., el Reino Unido y el G7.
Fuente: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html
Kommentar (0)