Política de Segurança e Divulgação dos Chatbots de Companhia
Última atualização: 11 de dezembro de 2025
Aplica-se a: Os apps e as experiências web do Texto com, operados pela Catloaf Software (o "Serviço").
1) O que o nosso produto é (e não é)
- O Texto com oferece chatbots de companhia com IA, concebidos para conversa e entretenimento.
-
Não é humano:
Você está interagindo com IA, não com uma pessoa. Destacamos isso claramente ao entrar e durante o chat.
-
Não é atendimento clínico:
Não fornecemos serviços médicos, de aconselhamento ou de crise.
2) Menores de idade (com menos de 18 anos)
- Quando sabemos que um usuário é menor de idade (com menos de 18 anos), aplicamos proteções adicionais (definidas abaixo).
- Determinamos isso utilizando uma opção binária de idade ("Tenho 18 anos ou mais" / "Tenho menos de 18 anos") ou sinais confiáveis das plataformas (veja a seção 6). Não solicitamos nem armazenamos data de nascimento ou idade exata.
3) Informações divulgadas a todos os usuários
-
Aviso sobre IA:
Aviso claro e visível de que você está interagindo com IA (e não uma pessoa) antes/ao iniciar um chat e dentro da interface do chat.
-
Aviso de adequação:
Chatbots de companhia podem não ser adequados para alguns menores; isso é informado no app e em nosso site.
4) Protocolo de segurança para crise e autoagressão
Não permitimos que o chatbot interaja com usuários sem que o seguinte protocolo esteja em vigor:
-
Detecção e tratamento.
Salvaguardas automáticas e regras de política para evitar a geração de conteúdos sobre autoagressão/suicídio. Quando a linguagem sugere ideação suicida ou autoagressão, as respostas normais são pausadas e é exibida uma mensagem de apoio à crise.
-
Encaminhamento para crise.
Oferecemos recursos de apoio em situações de crise (p. ex., U.S. 988 Lifeline, Crisis Text Line; recursos locais quando disponíveis).
-
Abordagem baseada em evidências.
Os métodos de detecção seguem indicadores reconhecidos e baseados em evidências. Não armazenamos diagnósticos de saúde.
-
Transparência.
Esta página documenta o nosso protocolo; atualizamo-lo à medida que os métodos evoluem.
Mantemos também contadores internos e não identificáveis sobre quantas vezes encaminhamentos de crise foram mostrados, para promover transparência e cumprir relatórios exigidos (veja a seção 8).
5) Proteções adicionais para menores identificados
Se soubermos que tens menos de 18 anos:
- Lembretes regulares durante o uso contínuo. Pelo menos a cada 3 horas de interação contínua, mostramos um lembrete para fazer uma pausa e avisamos que estás a conversar com uma IA, não com uma pessoa.
- Restrições a conteúdo sexual. Implementamos medidas para impedir a geração de material visual sexualmente explícito ou instruir diretamente um menor a envolver-se em conduta sexualmente explícita.
Essas proteções estão ativadas por padrão para menores identificados e não podem ser desativadas globalmente.
6) Como determinamos o status de menor (preservando a privacidade)
Minimizamos a coleta de dados, utilizando apenas um indicador binário de menor:
-
Escolha na app (todas as plataformas):
Escolhes "18 anos ou mais" ou "menos de 18". Armazenamos apenas o indicador correspondente de proteções para menores (ligado/desligado).
-
Android (versões Google Play):
Quando disponível, podemos usar a API Age Signals do Google Play para receber um sinal relacionado com a idade, apenas para aplicar proteções exigidas por lei. Não usamos esse sinal para anúncios, criação de perfis ou análises. Se não estiver disponível, recorremos à escolha feita na app.
-
iOS (iOS 26+):
Quando disponível, podemos usar a funcionalidade 'Declared Age Range' da Apple para receber uma faixa etária aprovada por utilizador/responsável (não uma data de nascimento). Mapeamos essa faixa para o nosso indicador binário de menor. Em versões anteriores do iOS ou se a partilha for recusada, recorremos à escolha na app.
7) Dados que mantemos (e que não mantemos)
- Não exigimos ou armazenamos sua data de nascimento ou idade exata.
-
Armazenamos apenas:
- Um indicador binário de se as proteções de menor se aplicam (ligado/desligado); e
- Contagens não identificáveis de eventos de encaminhamento à crise, para transparência/relatórios.
- Para o lembrete "a cada 3 horas", usamos dados de sessão/atividade (p. ex., o carimbo de data/hora da última atividade no chat) em vez de armazenar o conteúdo de cada mensagem.
8) Relatórios anuais (transparência pública)
A partir de 1º de julho de 2027, enviaremos informações anuais ao Escritório de Prevenção ao Suicídio da Califórnia, incluindo:
- O número de encaminhamentos para crise emitidos no ano anterior;
- Nossos protocolos para identificar, remover e responder a ideação suicida; e
- Nossos métodos de mensuração de ideação suicida baseados em evidências.
As informações enviadas não incluirão identificadores pessoais.
9) Como relatar preocupações
Se você acredita que nosso chatbot gerou conteúdo prejudicial ou deseja relatar uma preocupação de segurança:
- Use o link na app "Report a concern" (disponível em toda conversa); ou
-
E-mail:
support@textwith.me
Analisamos os relatórios de segurança, atualizamos nossos controles quando necessário e refletimos atualizações nesta página.
10) Alterações nesta política
Podemos atualizar essa política conforme as leis e melhores práticas evoluem. Mudanças significativas serão indicadas no topo desta página com uma nova data de última atualização.