Politique de sécurité et de divulgation des chatbots compagnons
Dernière mise à jour : 11 décembre 2025
S'applique à : les applications et expériences web Text With exploitées par Catloaf Software (le « Service »).
1) Ce que notre produit est (et n’est pas)
- Text With propose des chatbots compagnons IA conçus pour la conversation et le divertissement.
-
Pas humain :
Vous interagissez avec une IA, pas une personne. Cela est clairement indiqué lors de la connexion et dans le chat.
-
Pas de soins cliniques :
Nous ne fournissons pas de services médicaux, de conseil ou de gestion de crise.
2) Mineurs (moins de 18 ans)
- Lorsque nous savons qu’un utilisateur est mineur (moins de 18 ans), nous appliquons des protections supplémentaires (voir ci-dessous).
- Nous déterminons cela grâce à un choix binaire d’âge (« J’ai 18 ans ou plus » / « J’ai moins de 18 ans ») ou des signaux de plateformes de confiance (voir section 6). Nous ne demandons ni ne stockons de date de naissance ou d’âge exact.
3) Mentions affichées à tous les utilisateurs
-
Mention IA :
Notification claire et visible que vous dialoguez avec une IA (pas un humain) avant/au début du chat et dans l’interface.
-
Avertissement d’adéquation :
Les chatbots compagnons peuvent ne pas convenir à certains mineurs, indication affichée dans l’application et sur notre site.
4) Protocole de sécurité pour les crises et l’automutilation
Nous n’autorisons pas le chatbot à dialoguer avec les utilisateurs sans le protocole suivant :
-
Détection et gestion.
Des protections automatisées et des règles de politique visent à éviter la production de contenu lié à l’automutilation ou au suicide. Lorsque des propos suggèrent des idées suicidaires ou de l’automutilation, les réponses normales sont suspendues et un message de soutien apparaît.
-
Orientation vers une aide d’urgence.
Nous fournissons des ressources en cas de crise (par exemple, la ligne 988 aux États-Unis, Crisis Text Line ; des ressources locales lorsque disponibles).
-
Approche fondée sur des preuves.
Les méthodes de détection s’appuient sur des indicateurs reconnus et fondés sur des preuves. Nous ne stockons aucun diagnostic de santé.
-
Transparence.
Cette page expose notre protocole ; nous la mettons à jour à mesure que les méthodes évoluent.
Nous tenons aussi des compteurs internes non identifiants sur la fréquence à laquelle des orientations vers des ressources de crise sont affichées, pour la transparence et le reporting (voir section 8).
5) Protections supplémentaires pour les mineurs identifiés
Si nous savons que vous avez moins de 18 ans :
- Rappels réguliers lors de l’utilisation. Au moins toutes les 3 heures d’interaction continue, un rappel vous invite à faire une pause et indique que vous discutez avec une IA, et non avec un humain.
- Restriction du contenu sexuel. Nous mettons en place des mesures pour empêcher la génération de contenus visuels sexuellement explicites ou toute instruction directe à un mineur d’adopter un comportement sexuel explicite.
Ces protections sont activées par défaut pour les mineurs connus et ne peuvent pas être désactivées globalement.
6) Comment nous déterminons le statut de mineur (respect de la vie privée)
Nous limitons la collecte de données à un simple indicateur binaire de minorité :
-
Choix dans l’application (toutes les plateformes) :
Vous choisissez « 18 ans ou plus » ou « moins de 18 ans ». Nous ne stockons que l’indicateur activé/désactivé des protections pour mineurs.
-
Android (versions Google Play) :
Lorsque c’est possible, nous pouvons utiliser l’API Age Signals de Google Play pour recevoir un signal lié à l’âge, uniquement afin d’appliquer les protections légalement requises. Nous n’utilisons pas ce signal pour la publicité, le profilage ou l’analyse de données. En cas d’indisponibilité, nous revenons au choix dans l’application.
-
iOS (iOS 26+) :
Lorsque c’est possible, nous pouvons utiliser la fonctionnalité « Declared Age Range » d’Apple pour recevoir une tranche d’âge approuvée par l’utilisateur ou le parent (et non une date de naissance). Nous faisons correspondre cette tranche à notre indicateur binaire de minorité. Sur les versions antérieures d’iOS, ou si le partage est refusé, nous revenons au choix dans l’application.
7) Données que nous conservons (et pas)
- Nous ne demandons ni ne conservons votre date de naissance ou votre âge exact.
-
Nous stockons uniquement :
- Un indicateur binaire indiquant si les protections pour mineurs s’appliquent (activé/désactivé), et
- Des décomptes non identifiants d’événements d’orientation vers des ressources de crise, pour la transparence et le reporting.
- Pour le rappel « toutes les 3 heures », nous nous appuyons sur le temps de session/d’activité (par exemple : l’horodatage de la dernière activité de chat) plutôt que de stocker le contenu de chaque message.
8) Rapport annuel (transparence publique)
À partir du 1er juillet 2027, nous transmettrons chaque année des informations au California Office of Suicide Prevention, dont :
- Le nombre de recommandations de crise émises l’année précédente ;
- Nos protocoles de détection, de suppression et de réponse aux idées suicidaires ; et
- Nos méthodes de mesure des idées suicidaires à l’aide d’approches fondées sur des preuves.
Les informations transmises n’incluront aucune donnée personnelle permettant l’identification.
9) Comment signaler un problème
Si vous pensez que notre chatbot a généré un contenu nuisible ou souhaitez signaler un problème de sécurité :
- Utilisez le lien « Signaler un problème » dans l’application (disponible dans chaque conversation), ou
-
E-mail :
support@textwith.me
Nous examinons les signalements, adaptons nos garde-fous si nécessaire et répercutons les modifications sur cette page.
10) Modifications de cette politique
Nous pouvons mettre à jour cette politique en fonction de l’évolution des lois et des bonnes pratiques. Tout changement majeur sera mentionné en haut de cette page avec une nouvelle date de mise à jour.