Política de Segurança e Divulgação do Chatbot Companion
Última atualização: 11 de dezembro de 2025
Aplica-se a: Os aplicativos e experiências web do Texto com, operados pela Catloaf Software (o "Serviço").
1) O que é (e o que não é) nosso produto
- Texto com oferece chatbots companions baseados em IA, projetados para conversas e entretenimento.
-
Não é humano:
Você está interagindo com IA, não com uma pessoa. Destacamos isso claramente ao entrar e durante o chat.
-
Não é atendimento clínico:
Não fornecemos serviços médicos, de aconselhamento ou de crise.
2) Menores de idade (menores de 18 anos)
- Quando sabemos que um usuário é menor de idade (menos de 18 anos), aplicamos proteções adicionais (definidas abaixo).
- Determinamos isso utilizando uma opção binária de idade ("Tenho 18 anos ou mais" / "Tenho menos de 18 anos") ou sinais confiáveis das plataformas (veja a seção 6). Não solicitamos nem armazenamos data de nascimento ou idade exata.
3) Informações divulgadas a todos usuários
-
Aviso sobre IA:
Aviso claro e visível de que você está interagindo com IA (e não uma pessoa) antes/ao iniciar um chat e dentro da interface do chat.
-
Aviso de adequação:
Os chatbots companions podem não ser adequados para alguns menores, informamos isso no aplicativo e em nosso site.
4) Protocolo de segurança para crise e autoagressão
Não permitimos que o chatbot interaja com usuários sem que o seguinte protocolo esteja em vigor:
-
Detecção e tratamento.
Salvaguardas automáticas e regras de política evitam a geração de conteúdos sobre autoagressão/suicídio. Quando a linguagem sugere ideação suicida ou autoagressão, as respostas normais são pausadas e é exibida uma mensagem de apoio à crise.
-
Encaminhamento para ajuda.
Oferecemos recursos de apoio à crise (ex: 988 Lifeline dos EUA, Crisis Text Line; recursos locais quando disponíveis).
-
Abordagem baseada em evidências.
Os métodos de detecção seguem indicadores reconhecidos e baseados em evidências. Não armazenamos diagnósticos de saúde.
-
Transparência.
Esta página documenta nosso protocolo; ela é atualizada conforme os métodos evoluem.
Mantemos também contadores internos e não identificáveis sobre quantas vezes encaminhamentos de crise foram mostrados, para promover transparência e cumprir relatórios exigidos (veja a seção 8).
5) Proteções adicionais para menores identificados
Se sabemos que você tem menos de 18 anos:
- Lembretes regulares durante o uso contínuo. Pelo menos a cada 3 horas de interação contínua, exibimos um lembrete para fazer uma pausa e avisamos que você está conversando com uma IA, não uma pessoa.
- Restrições a conteúdo sexual. Implementamos medidas para impedir a geração de material visual sexualmente explícito ou a orientação direta de menor para se engajar em conduta sexual explícita.
Essas proteções estão ativadas por padrão para menores identificados e não podem ser desativadas globalmente.
6) Como determinamos o status de menor (preservando a privacidade)
Minimizamos a coleta de dados, utilizando apenas um indicador binário de menor:
-
Escolha dentro do app (todas as plataformas):
Você escolhe "18 anos ou mais" ou "menor de 18 anos". Armazenamos apenas o indicador correspondente de proteção para menores (ligado/desligado).
-
Android (versões Google Play):
Quando disponível, podemos usar a API Age Signals do Google Play para receber um sinal relacionado à idade, apenas para aplicar proteções exigidas por lei. Não usamos esse sinal para anúncios, perfilamento ou análises. Se indisponível, usamos a escolha feita no app.
-
iOS (iOS 26+):
Quando disponível, podemos usar a funcionalidade 'Declared Age Range' da Apple para receber uma faixa etária aprovada por usuário/responsável (não uma data de nascimento). Mapeamos essa faixa para nosso indicador binário de menor. Em versões iOS anteriores ou se a partilha for recusada, usamos a escolha dentro do app.
7) Dados que mantemos (e que não mantemos)
- Não exigimos ou armazenamos sua data de nascimento ou idade exata.
-
Armazenamos apenas:
- Um indicador binário de se as proteções de menor se aplicam (ligado/desligado); e
- Contagens não identificáveis de eventos de encaminhamento à crise, para transparência/relatórios.
- Para o lembrete "a cada 3 horas", usamos dados de sessão/atividade (ex: timestamp da última atividade em chat) em vez de armazenar o conteúdo de cada mensagem.
8) Relatórios anuais (transparência pública)
A partir de 1º de julho de 2027, enviaremos informações anuais ao Escritório de Prevenção ao Suicídio da Califórnia, incluindo:
- O número de encaminhamentos para crise emitidos no ano anterior;
- Nossos protocolos para identificar, remover e responder a ideação suicida; e
- Nossos métodos de mensuração de ideação suicida baseados em evidências.
As informações enviadas não incluirão identificadores pessoais.
9) Como relatar preocupações
Se você acredita que nosso chatbot gerou conteúdo prejudicial ou deseja relatar uma preocupação de segurança:
- Use o link dentro do app "Reportar uma preocupação" (disponível em toda conversa); ou
-
E-mail:
support@textwith.me
Analisamos os relatórios de segurança, atualizamos nossos controles quando necessário e refletimos atualizações nesta página.
10) Alterações nesta política
Podemos atualizar essa política conforme as leis e melhores práticas evoluem. Mudanças significativas serão indicadas no topo desta página com uma nova data de última atualização.