Politique de sécurité et de divulgation des chatbots compagnons
Dernière mise à jour : 11 décembre 2025
S'applique à : Les applications et expériences web Text With exploitées par Catloaf Software (le « Service »).
1) Ce que notre produit est (et n’est pas)
- Text With propose des chatbots compagnons IA conçus pour la conversation et le divertissement.
-
Pas humain :
Vous interagissez avec une IA, pas une personne. Cela est clairement indiqué lors de la connexion et dans le chat.
-
Pas de soins cliniques :
Nous ne fournissons pas de services médicaux, de conseil ou de gestion de crise.
2) Mineurs (moins de 18 ans)
- Lorsque nous savons qu’un utilisateur est mineur (moins de 18 ans), nous appliquons des protections supplémentaires (voir ci-dessous).
- Nous déterminons cela grâce à un choix binaire d’âge (« J’ai 18 ans ou plus » / « J’ai moins de 18 ans ») ou des signaux de plateformes de confiance (voir section 6). Nous ne demandons ni ne stockons de date de naissance ou d’âge exact.
3) Divulgations affichées à tous les utilisateurs
-
Divulgation IA :
Notification claire et visible que vous dialoguez avec une IA (pas un humain) avant/au début du chat et dans l’interface.
-
Avis de convenance :
Les chatbots compagnons peuvent ne pas convenir à certains mineurs, indication affichée dans l’application et sur notre site.
4) Protocole de sécurité pour les crises et l’automutilation
Nous n’autorisons pas le chatbot à dialoguer avec les utilisateurs sans le protocole suivant :
-
Détection et gestion.
Des protections automatisées et règles garantissent l’absence de contenu lié à l’automutilation ou au suicide. Lorsque des propos suggèrent des idées suicidaires ou d’automutilation, les réponses normales sont suspendues et un message de soutien apparaît.
-
Orientation vers les ressources.
Nous transmettons des ressources de soutien en cas de crise (par exemple, 988 aux États-Unis, Crisis Text Line, ou ressources locales si possible).
-
Approche fondée sur des preuves.
Les méthodes de détection suivent des indicateurs reconnus par la recherche. Nous ne stockons aucun diagnostic de santé.
-
Transparence.
Cette page expose notre protocole ; nous la mettons à jour à mesure que les méthodes évoluent.
Nous tenons aussi des compteurs internes non identifiants sur la fréquence d’affichage des recommandations de crise, pour la transparence et le reporting (voir section 8).
5) Protections supplémentaires pour les mineurs identifiés
Si nous savons que vous avez moins de 18 ans :
- Rappels réguliers lors de l’utilisation. Au moins toutes les 3 heures d’interaction continue, un rappel vous invite à faire une pause et rappelle que vous discutez avec une IA, pas un humain.
- Restriction du contenu sexuel. Nous mettons en place des mesures pour empêcher la génération de contenus visuels sexuellement explicites ou toute instruction directe à un mineur d’adopter un comportement sexuel explicite.
Ces protections sont activées par défaut pour les mineurs connus et ne peuvent pas être désactivées globalement.
6) Comment nous déterminons le statut de mineur (respect de la confidentialité)
Nous limitons la collecte de données à un simple indicateur binaire de minorité :
-
Choix dans l’application (toutes plateformes) :
Vous choisissez « 18 ans ou plus » ou « moins de 18 ans ». Nous ne stockons que l’indicateur de protections applicables.
-
Android (versions Google Play) :
Lorsque c’est possible, nous utilisons l’API Age Signals de Google Play pour recevoir un signal d’âge uniquement afin d’appliquer les protections légales requises. Ce signal n’est pas utilisé pour la publicité, le profilage ou l’analyse de données. En cas d’indisponibilité, nous revenons au choix dans l’application.
-
iOS (iOS 26 et +) :
Lorsque c’est possible, nous utilisons la fonctionnalité « Declared Age Range » d’Apple pour recevoir une tranche d’âge approuvée par l’utilisateur ou le parent (jamais la date de naissance). Nous la transformons en indicateur binaire de minorité. Sur les versions antérieures ou si le partage est refusé, nous utilisons le choix dans l’application.
7) Données que nous conservons (et pas)
- Nous ne demandons ni ne conservons votre date de naissance ou âge exact.
-
Nous stockons uniquement :
- Un indicateur binaire selon que les protections mineurs s’appliquent (activé/désactivé), et
- Des comptes non identifiants d’événements de recommandation de crise, pour la transparence et le reporting.
- Pour le rappel « toutes les 3 heures », nous utilisons le temps de la session/activité (exemple : la date de la dernière activité de chat), sans stocker le contenu de chaque message.
8) Rapport annuel (transparence publique)
À partir du 1er juillet 2027, nous transmettrons chaque année des informations au California Office of Suicide Prevention, notamment :
- Le nombre de recommandations de crise émises l’année précédente ;
- Nos protocoles de détection, suppression et réaction face aux idées suicidaires ; et
- Nos méthodes de mesure de l’idéation suicidaire fondées sur des approches scientifiques.
Les informations transmises n’incluront aucune donnée personnelle permettant l’identification.
9) Comment signaler un problème
Si vous pensez que notre chatbot a généré un contenu nuisible ou souhaitez signaler un problème de sécurité :
- Utilisez le lien « Signaler un problème » dans l’application (disponible dans chaque conversation), ou
-
Email :
support@textwith.me
Nous examinons les signalements, adaptons nos gardes-fous si nécessaire, et répercutons les modifications sur cette page.
10) Modifications de cette politique
Nous pouvons mettre à jour cette politique en fonction de l’évolution des lois et des bonnes pratiques. Tout changement majeur sera mentionné en haut de cette page avec une nouvelle date de mise à jour.