Sicurezza e Politica di Divulgazione dei Chatbot Companion
Ultimo aggiornamento: 11 dicembre 2025
Si applica a: Le app e le esperienze web di Text With gestite da Catloaf Software (il "Servizio").
1) Cosa è (e non è) il nostro prodotto
- Text With offre chatbot companion basati su IA progettati per conversazione e intrattenimento.
-
Non sono umani:
Stai interagendo con un’IA, non con una persona. Lo indichiamo chiaramente all’accesso e nella chat.
-
Non è un servizio clinico:
Non forniamo servizi medici, di consulenza o di supporto in caso di crisi.
2) Minorenni (sotto i 18 anni)
- Quando sappiamo che un utente è minorenne (sotto i 18 anni), applichiamo protezioni aggiuntive (definite qui sotto).
- Lo determiniamo tramite una scelta binaria dell’età ("Ho 18 anni o più" / "Ho meno di 18 anni") o tramite segnali affidabili della piattaforma (vedi sezione 6). Non richiediamo né conserviamo data di nascita o età esatta.
3) Divulgazioni mostrate a tutti gli utenti
-
Avviso IA:
Notifica chiara e visibile che stai interagendo con una IA (non un umano) prima o all’inizio della chat e nell’interfaccia della chat.
-
Avviso di idoneità:
I chatbot companion potrebbero non essere adatti ad alcuni minori, come indicato in-app e sul nostro sito.
4) Protocollo di sicurezza per crisi e autolesionismo
Non permettiamo al chatbot di interagire con gli utenti se non è attivo il seguente protocollo:
-
Rilevamento e gestione.
Salvaguardie automatiche e regole di policy per evitare la produzione di contenuti su autolesionismo/suicidio. Quando si rileva linguaggio che suggerisce ideazione suicida o autolesionismo, le risposte normali vengono sospese e viene mostrato un messaggio di supporto per crisi.
-
Rinvio a servizi di crisi.
Forniamo risorse di supporto per crisi (es. linea US 988 Lifeline, Crisis Text Line; risorse locali ove disponibili).
-
Approccio basato sull’evidenza.
I metodi di rilevamento sono basati su indicatori riconosciuti e basati sull’evidenza. Non memorizziamo diagnosi di salute.
-
Trasparenza.
Questa pagina documenta il nostro protocollo; viene aggiornata quando i metodi migliorano.
Manteniamo inoltre dei contatori interni e non identificabili su quante volte vengono mostrate le segnalazioni di crisi per supportare la trasparenza e gli obblighi di rendicontazione (vedi sezione 8).
5) Ulteriori protezioni per i minorenni noti
Se sappiamo che hai meno di 18 anni:
- Promemoria regolari durante l’uso continuo. Almeno ogni 3 ore consecutive di interazione mostriamo un promemoria per fare una pausa e che stai chattando con una IA, non con un umano.
- Restrizioni sui contenuti sessuali. Attuiamo misure per prevenire la generazione di materiale visivamente sessualmente esplicito o per impedire che venga dato direttamente l’ordine a un minore di impegnarsi in comportamenti sessualmente espliciti.
Queste protezioni sono attivate automaticamente per i minorenni noti e non possono essere disattivate globalmente.
6) Come determiniamo lo stato di minorenne (nel rispetto della privacy)
Riduciamo al minimo la raccolta dei dati e usiamo solo un flag binario di minorenne:
-
Scelta in-app (tutte le piattaforme):
Scegli "18 anni o più" oppure "meno di 18 anni". Conserviamo solo il flag risultante di protezioni minorenne acceso/spento.
-
Android (versioni Google Play):
Dove disponibile, possiamo usare la Age Signals API di Google Play per ricevere un segnale legato all’età solamente per applicare le protezioni richieste dalla legge. Non usiamo questo segnale per pubblicità, profilazione o analisi. Se non disponibile, utilizziamo la scelta in-app.
-
iOS (iOS 26+):
Dove disponibile, possiamo usare la funzione Apple Declared Age Range per ricevere una fascia d’età approvata dall’utente/genitore (non una data di nascita). Mappriamo tale fascia al nostro flag binario minorenne. Su versioni iOS precedenti o se la condivisione è rifiutata, usiamo la scelta in-app.
7) Dati che conserviamo (e che non conserviamo)
- Non richiediamo né conserviamo la tua data di nascita o età esatta.
-
Conserviamo solo:
- Un indicatore binario relativo all’applicazione delle protezioni per minorenni (acceso/spento), e
- Contatori non identificabili degli eventi di rinvio a servizi di crisi per trasparenza/rendicontazione.
- Per il promemoria delle "ogni 3 ore" ci basiamo sulla tempistica di sessione/attività (es. timestamp ultima attività in chat) invece che memorizzare il contenuto di ogni messaggio.
8) Rendicontazione annuale (trasparenza pubblica)
Dal 1 luglio 2027, forniremo annualmente informazioni all’Ufficio per la Prevenzione del Suicidio della California, incluse:
- Il numero di rinvii a servizi di crisi effettuati nell’anno precedente;
- I nostri protocolli per il rilevamento, la rimozione e la risposta all’ideazione suicida; e
- I nostri metodi per misurare l’ideazione suicida utilizzando approcci basati sull’evidenza.
Le informazioni inviate non includeranno dati identificativi personali.
9) Come segnalare preoccupazioni
Se ritieni che il nostro chatbot abbia generato contenuti dannosi o vuoi segnalare un problema di sicurezza:
- Usa il link in-app "Segnala un problema" (disponibile in ogni conversazione), oppure
-
Email:
support@textwith.me
Esaminiamo le segnalazioni di sicurezza, aggiorniamo i nostri sistemi di protezione quando necessario e riportiamo gli aggiornamenti su questa pagina.
10) Modifiche a questa politica
Potremmo aggiornare questa politica man mano che evolvono le leggi e le migliori pratiche. Le modifiche sostanziali saranno segnalate in cima a questa pagina con una nuova data di ultimo aggiornamento.