Política de Seguridad y Divulgación de Chatbots Compañero
Última actualización: 11 de diciembre de 2025
Aplica a: Las aplicaciones y experiencias web de Text With operadas por Catloaf Software (el "Servicio").
1) Qué es (y qué no es) nuestro producto
- Text With ofrece chatbots de IA compañero diseñados para la conversación y el entretenimiento.
-
No es humano:
Estás interactuando con una IA, no una persona. Esto se indica claramente al iniciar sesión y en el chat.
-
No es atención clínica:
No ofrecemos servicios médicos, de consejería ni de crisis.
2) Menores de edad (menores de 18 años)
- Cuando sabemos que un usuario es menor de 18 años, aplicamos protecciones adicionales (definidas más abajo).
- Determinamos esto usando una opción binaria de edad ("Tengo 18 años o más" / "Tengo menos de 18 años") o señales confiables de la plataforma (ver sección 6). No solicitamos ni almacenamos fecha de nacimiento ni edad exacta.
3) Divulgaciones mostradas a todos los usuarios
-
Divulgación de IA:
Aviso claro y visible de que estás interactuando con una IA (no con un humano) antes o al comienzo del chat y dentro de la interfaz.
-
Aviso de idoneidad:
Los chatbots compañero pueden no ser adecuados para algunos menores; esto se indica en la app y en el sitio.
4) Protocolo de seguridad para crisis y autolesiones
No permitimos que el chatbot interactúe con los usuarios a menos que exista el siguiente protocolo:
-
Detección y manejo.
Salvaguardas automatizadas y reglas para evitar la producción de contenido sobre autolesiones/suicidio. Cuando el lenguaje sugiere ideas suicidas o autolesiones, se pausan las respuestas normales y se muestra un mensaje de apoyo.
-
Remisión a crisis.
Proveemos recursos de apoyo en crisis (por ejemplo, 988 Lifeline de EE. UU., Crisis Text Line; recursos locales donde estén disponibles).
-
Enfoque basado en evidencia.
Los métodos de detección se basan en indicadores reconocidos, respaldados por evidencia. No almacenamos diagnósticos de salud.
-
Transparencia.
Esta página documenta nuestro protocolo y la actualizamos a medida que mejoramos nuestros métodos.
También mantenemos contadores internos y no identificativos sobre la frecuencia con que se muestran las remisiones a crisis, para apoyar la transparencia y los requisitos de informes (ver sección 8).
5) Protecciones adicionales para menores reconocidos
Si sabemos que tienes menos de 18 años:
- Recordatorios regulares durante el uso continuo. Al menos cada 3 horas de interacción continua mostraremos un recordatorio para hacer una pausa y que estás chateando con una IA, no un humano.
- Restricciones de contenido sexual. Implementamos medidas para evitar la generación de material sexualmente explícito visual o la instrucción directa a un menor para que participe en conductas sexualmente explícitas.
Estas protecciones están activadas por defecto para menores reconocidos y no se pueden desactivar globalmente.
6) Cómo determinamos el estatus de menor (protegiendo la privacidad)
Minimizamos la recopilación de datos y sólo usamos una bandera binaria para menores:
-
Elección en la app (todas las plataformas):
Tú eliges "18 años o más" o "menor de 18 años". Sólo almacenamos la bandera binaria que resulta para activar o desactivar las protecciones.
-
Android (versiones Google Play):
Cuando está disponible, podemos emplear la API Age Signals de Google Play para recibir una señal de edad únicamente para aplicar las protecciones legalmente requeridas. No usamos esta señal para anuncios, perfiles o analíticas. Si no está disponible, usamos la elección en la app.
-
iOS (iOS 26+):
Cuando está disponible, podemos utilizar la capacidad de Rango de Edad Declarado de Apple para recibir un rango de edad aprobado por el usuario/padre (no una fecha de nacimiento). Asignamos ese rango a nuestra bandera binaria de menor. En versiones anteriores de iOS o si se rechaza compartir, usamos la opción en la app.
7) Qué datos guardamos (y cuáles no)
- No requerimos ni almacenamos tu fecha de nacimiento ni tu edad exacta.
-
Solo almacenamos:
- Un indicador binario de si aplican protecciones para menores (activadas/desactivadas), y
- Conteos no identificativos sobre eventos de derivación a crisis para transparencia/informes.
- Para el recordatorio "cada 3 horas" dependemos del tiempo de sesión/actividad (ejemplo: el timestamp de la última actividad en chat) en vez de guardar el contenido de cada mensaje.
8) Reporte anual (transparencia pública)
A partir del 1 de julio de 2027, enviaremos información anual a la Oficina de Prevención del Suicidio de California, incluyendo:
- La cantidad de remisiones a crisis emitidas en el año anterior;
- Nuestros protocolos para detectar, remover y responder ante ideas suicidas; y
- Nuestros métodos para medir ideas suicidas usando enfoques basados en evidencia.
La información enviada excluirá datos personales identificativos.
9) Cómo reportar inquietudes
Si crees que nuestro chatbot produjo contenido dañino o deseas reportar una preocupación de seguridad:
- Usa el enlace en la app "Reportar una inquietud" (disponible en cada conversación), o
-
Correo electrónico:
support@textwith.me
Revisamos los reportes de seguridad, actualizamos nuestros controles según corresponda y reflejamos los cambios en esta página.
10) Cambios en esta política
Podemos actualizar esta política conforme evolucionen las leyes y las mejores prácticas. Los cambios importantes se señalarán en la parte superior de esta página con una nueva fecha de última actualización.