Companion-Chatbot-Sicherheits- & Offenlegungspolitik
Zuletzt aktualisiert: 11. Dezember 2025
Gilt für: Die Text With Apps und Web-Erfahrungen, die von Catloaf Software (der "Dienst") betrieben werden.
1) Was unser Produkt ist (und nicht ist)
- Text With bietet KI-Companion-Chatbots, die für Konversation und Unterhaltung entwickelt wurden.
-
Kein Mensch:
Sie interagieren mit KI, nicht mit einer Person. Dies wird beim Anmelden und im Chat klar gekennzeichnet.
-
Keine klinische Betreuung:
Wir bieten keine medizinische, psychologische oder Krisenhilfe an.
2) Minderjährige (unter 18)
- Wenn wir wissen, dass ein Nutzer minderjährig (unter 18) ist, wenden wir zusätzliche Schutzmaßnahmen an (siehe unten).
- Wir ermitteln dies über eine binäre Altersabfrage ("Ich bin 18 oder älter" / "Ich bin unter 18") oder vertrauenswürdige Plattformsignale (siehe Abschnitt 6). Wir fordern oder speichern kein Geburtsdatum oder exaktes Alter.
3) Hinweise für alle Nutzer*innen
-
KI-Hinweis:
Klarer, deutlicher Hinweis darauf, dass Sie mit KI (nicht mit einem Menschen) kommunizieren, vor/dem Beginn des Chats und in der Chat-Oberfläche.
-
Hinweis zur Eignung:
Companion-Chatbots sind möglicherweise nicht für alle Minderjährigen geeignet, dies wird in der App und auf unserer Website angezeigt.
4) Krisen- & Selbstschutzprotokoll
Der Chatbot darf Nutzer*innen nur kontaktieren, wenn folgendes Protokoll implementiert ist:
-
Erkennung & Umgang.
Automatisierte Schutzmechanismen und Richtlinien, um die Erzeugung von Inhalten zu Selbstverletzung/Suizid zu verhindern. Wenn Sprache auf suizidale Gedanken oder Selbstverletzung hindeutet, werden normale Antworten pausiert und eine Krisenunterstützungsnachricht angezeigt.
-
Krisenvermittlung.
Wir stellen Krisenressourcen zur Verfügung (z. B. US-988-Lifeline, Crisis Text Line; lokale Ressourcen, wo verfügbar).
-
Evidenzbasierte Vorgehensweise.
Unsere Erkennungsmethoden orientieren sich an anerkannten, evidenzbasierten Indikatoren. Wir speichern keine Gesundheitsdiagnosen.
-
Transparenz.
Dieses Dokument beschreibt unser Protokoll; wir aktualisieren es, wenn Methoden verbessert werden.
Wir führen außerdem interne, nicht-identifizierende Zähler, wie oft Krisenhinweise angezeigt werden, um Transparenz und die Berichterstattung zu unterstützen (siehe Abschnitt 8).
5) Zusätzliche Schutzmaßnahmen für bekannte Minderjährige
Wenn wir wissen, dass Sie unter 18 sind:
- Regelmäßige Hinweise während der Nutzung. Mindestens alle 3 Stunden durchgehender Interaktion zeigen wir einen Hinweis an, eine Pause einzulegen, und dass Sie mit KI und nicht mit einem Menschen sprechen.
- Einschränkungen bei sexuellen Inhalten. Wir treffen Maßnahmen, um die Generierung von visuell sexuell expliziten Inhalten zu verhindern oder Minderjährige zur Teilnahme an sexuellen Handlungen anzuleiten.
Diese Schutzmaßnahmen sind für bekannte Minderjährige standardmäßig aktiviert und können nicht global deaktiviert werden.
6) Wie wir Minderjährigkeit feststellen (datenschutzfreundlich)
Wir minimieren die Datenerhebung und verwenden nur ein binäres Minderjährigen-Flag:
-
In-App-Auswahl (alle Plattformen):
Sie wählen "18 oder älter" oder "unter 18". Wir speichern nur das daraus resultierende Flag für den Minderjährigenschutz (an/aus).
-
Android (Google Play Versionen):
Sofern verfügbar, nutzen wir Googles Age Signals API, um ausschließlich ein altersbezogenes Signal zu erhalten und gesetzlich erforderliche Schutzmaßnahmen umzusetzen. Dieses Signal verwenden wir nicht für Werbung, Profiling oder Analysen. Falls nicht verfügbar, nutzen wir die In-App-Auswahl.
-
iOS (iOS 26+):
Sofern verfügbar, nutzen wir Apples Declared Age Range-Funktion, um von Nutzer*in/Eltern genehmigte Altersbereiche (kein Geburtsdatum) zu erhalten. Wir ordnen diesem Bereich unser binäres Flag für Minderjährigenschutz zu. Bei älteren iOS-Versionen oder abgelehnter Freigabe erfolgt die Auswahl wie in der App.
7) Daten, die wir behalten (und nicht)
- Wir verlangen oder speichern kein Geburtsdatum und kein genaues Alter.
-
Wir speichern nur:
- Ein binärer Indikator, ob Minderjährigenschutz aktiv ist (an/aus), und
- Nicht-identifizierende Zählwerte, wie oft Krisenhinweise gezeigt wurden, zur Transparenz/Berichterstattung.
- Für den "alle 3 Stunden" Hinweis verlassen wir uns auf Sitzungs-/Aktivitätszeiten (z. B. einen letzten Chat-Aktivitätszeitpunkt) und speichern keine Nachrichteninhalte.
8) Jährliche Berichte (öffentliche Transparenz)
Ab 1. Juli 2027 reichen wir jährlich Informationen beim California Office of Suicide Prevention ein. Dazu gehören:
- Die Zahl der im Vorjahr angezeigten Krisenhinweise;
- Unsere Protokolle zur Erkennung, Entfernung und Reaktion auf suizidale Gedanken; und
- Unsere Methoden zur Messung von suizidalen Gedanken mit evidenzbasierten Verfahren.
Übermittelte Informationen enthalten keine persönlichen Identifikatoren.
9) So melden Sie Bedenken
Wenn Sie der Meinung sind, dass unser Chatbot schädliche Inhalte erzeugt hat oder Sie eine Sicherheitsbedenken melden möchten:
- Nutzen Sie den In-App-Link "Bedenken melden" (in jedem Chat verfügbar), oder
-
E-Mail:
support@textwith.me
Wir prüfen Sicherheitsmeldungen, passen erforderlichenfalls unsere Schutzmaßnahmen an und dokumentieren Änderungen auf dieser Seite.
10) Änderungen an dieser Richtlinie
Wir können diese Richtlinie aktualisieren, wenn Gesetze und bewährte Praktiken sich weiterentwickeln. Wesentliche Änderungen werden oben auf dieser Seite mit einem neuen Aktualisierungsdatum vermerkt.