Política de seguridad y divulgación de chatbots compañeros
Última actualización: 11 de diciembre de 2025
Aplica a: Las aplicaciones y experiencias web de Text With operadas por Catloaf Software (el "Servicio").
1) Qué es (y qué no es) nuestro producto
- Text With ofrece chatbots de IA compañero diseñados para la conversación y el entretenimiento.
-
No es humano:
Estás interactuando con una IA, no con una persona. Esto se indica claramente al iniciar sesión y en el chat.
-
No es atención clínica:
No ofrecemos servicios médicos, de consejería ni de crisis.
2) Menores de edad (menores de 18 años)
- Cuando sabemos que un usuario es menor de 18 años, aplicamos protecciones adicionales (definidas más abajo).
- Determinamos esto usando una opción binaria de edad ("Tengo 18 años o más" / "Tengo menos de 18 años") o señales confiables de la plataforma (ver sección 6). No solicitamos ni almacenamos fecha de nacimiento ni edad exacta.
3) Divulgaciones mostradas a todos los usuarios
-
Divulgación de IA:
Aviso claro y visible de que estás interactuando con una IA (no con un humano) antes o al comienzo del chat y dentro de la interfaz.
-
Aviso de idoneidad:
Los chatbots compañeros pueden no ser adecuados para algunos menores; esto se indica en la app y en el sitio.
4) Protocolo de seguridad para crisis y autolesiones
No permitimos que el chatbot interactúe con los usuarios a menos que exista el siguiente protocolo:
-
Detección y manejo.
Salvaguardas automatizadas y reglas de política para evitar la producción de contenido sobre autolesiones/suicidio. Cuando el lenguaje sugiere ideas suicidas o autolesiones, se pausan las respuestas normales y se muestra un mensaje de apoyo.
-
Derivación a crisis.
Proporcionamos recursos de crisis (p. ej., 988 Lifeline de EE. UU., Crisis Text Line; recursos locales donde estén disponibles).
-
Enfoque basado en evidencia.
Los métodos de detección se basan en indicadores reconocidos, respaldados por evidencia. No almacenamos diagnósticos de salud.
-
Transparencia.
Esta página documenta nuestro protocolo y la actualizamos a medida que mejoramos nuestros métodos.
También mantenemos contadores internos y no identificativos sobre la frecuencia con que se muestran las derivaciones a recursos de crisis, para apoyar la transparencia y los requisitos de informes (ver sección 8).
5) Protecciones adicionales para menores reconocidos
Si sabemos que tienes menos de 18 años:
- Recordatorios regulares durante el uso continuo. Al menos cada 3 horas de interacción continua mostraremos un recordatorio para hacer una pausa y que estás chateando con una IA, no un humano.
- Restricciones de contenido sexual. Implementamos medidas para evitar la generación de material sexualmente explícito visual o la instrucción directa a un menor para que participe en conductas sexualmente explícitas.
Estas protecciones están activadas por defecto para menores reconocidos y no se pueden desactivar globalmente.
6) Cómo determinamos el estatus de menor (protegiendo la privacidad)
Minimizamos la recopilación de datos y solo usamos una bandera binaria para menores:
-
Elección en la app (todas las plataformas):
Tú eliges "18 años o más" o "menor de 18 años". Solo almacenamos el indicador resultante (protecciones para menores activadas/desactivadas).
-
Android (versiones Google Play):
Cuando está disponible, podemos emplear la API Age Signals de Google Play para recibir una señal relacionada con la edad únicamente para aplicar las protecciones legalmente requeridas. No usamos esta señal para anuncios, elaboración de perfiles ni análisis. Si no está disponible, usamos la elección en la app.
-
iOS (iOS 26+):
Cuando está disponible, podemos utilizar la función de Rango de edad declarado de Apple para recibir un rango de edad aprobado por el usuario o su progenitor (no una fecha de nacimiento). Asignamos ese rango a nuestro indicador binario de menor. En versiones anteriores de iOS o si se rechaza el uso compartido, usamos la opción en la app.
7) Qué datos guardamos (y cuáles no)
- No requerimos ni almacenamos tu fecha de nacimiento ni tu edad exacta.
-
Solo almacenamos:
- Un indicador binario de si aplican protecciones para menores (activadas/desactivadas), y
- Recuentos no identificativos de eventos de derivación a recursos de crisis para transparencia/informes.
- Para el recordatorio "cada 3 horas", nos basamos en el tiempo de sesión/actividad (p. ej., una marca de tiempo de la última actividad de chat) en vez de almacenar el contenido de cada mensaje.
8) Informe anual (transparencia pública)
A partir del 1 de julio de 2027, enviaremos información anual a la Oficina de Prevención del Suicidio de California, incluyendo:
- La cantidad de remisiones a crisis emitidas en el año anterior;
- Nuestros protocolos para detectar, eliminar y responder ante ideas suicidas; y
- Nuestros métodos para medir ideas suicidas usando enfoques basados en evidencia.
La información enviada excluirá datos personales identificativos.
9) Cómo reportar inquietudes
Si crees que nuestro chatbot produjo contenido dañino o deseas reportar una preocupación de seguridad:
- Usa el enlace en la app "Reportar una inquietud" (disponible en cada conversación), o
-
Correo electrónico:
support@textwith.me
Revisamos los reportes de seguridad, actualizamos nuestros controles según corresponda y reflejamos los cambios en esta página.
10) Cambios en esta política
Podemos actualizar esta política conforme evolucionen las leyes y las mejores prácticas. Los cambios importantes se señalarán en la parte superior de esta página con una nueva fecha de última actualización.