Sicherheits- und Offenlegungsrichtlinie für Companion-Chatbots
Zuletzt aktualisiert: 11. Dezember 2025
Gilt für: Die „Text With“-Apps und Web-Erfahrungen, die von Catloaf Software (dem „Dienst“) betrieben werden.
1) Was unser Produkt ist (und nicht ist)
- Text With bietet KI-Companion-Chatbots für Konversation und Unterhaltung.
-
Kein Mensch:
Sie interagieren mit KI, nicht mit einer Person. Dies wird beim Anmelden und im Chat klar gekennzeichnet.
-
Keine klinische Betreuung:
Wir bieten keine medizinische, psychologische oder Krisenhilfe an.
2) Minderjährige (unter 18)
- Wenn wir wissen, dass ein Nutzer minderjährig (unter 18) ist, wenden wir zusätzliche Schutzmaßnahmen an (wie unten beschrieben).
- Wir ermitteln dies über eine binäre Altersabfrage ("Ich bin 18 oder älter" / "Ich bin unter 18") oder vertrauenswürdige Plattformsignale (siehe Abschnitt 6). Wir fordern oder speichern kein Geburtsdatum oder exaktes Alter.
3) Hinweise für alle Nutzer
-
KI-Hinweis:
Klarer, gut sichtbarer Hinweis darauf, dass Sie mit KI (nicht mit einem Menschen) kommunizieren, vor bzw. zu Beginn des Chats sowie innerhalb der Chat-Oberfläche.
-
Hinweis zur Eignung:
Companion-Chatbots sind möglicherweise nicht für alle Minderjährigen geeignet. Dieser Hinweis wird in der App und auf unserer Website angezeigt.
4) Sicherheitsprotokoll zu Krisen & Selbstverletzung
Wir erlauben dem Chatbot keine Interaktionen mit Nutzerinnen und Nutzern, sofern nicht das folgende Protokoll implementiert ist:
-
Erkennung & Umgang
Automatisierte Schutzmechanismen und Richtlinien, um die Erzeugung von Inhalten zu Selbstverletzung/Suizid zu vermeiden. Wenn Formulierungen auf suizidale Gedanken oder Selbstverletzung hindeuten, werden normale Antworten pausiert und es wird eine Krisenunterstützungsnachricht angezeigt.
-
Krisenvermittlung.
Wir stellen Krisenressourcen zur Verfügung (z. B. US-988-Lifeline, Crisis Text Line; lokale Ressourcen, sofern verfügbar).
-
Evidenzbasierte Vorgehensweise.
Unsere Erkennungsmethoden orientieren sich an anerkannten, evidenzbasierten Indikatoren. Wir speichern keine Gesundheitsdiagnosen.
-
Transparenz.
Diese Seite dokumentiert unser Protokoll; wir aktualisieren es, wenn sich die Methoden verbessern.
Wir führen außerdem interne, nicht-identifizierende Zähler dafür, wie oft Krisenhinweise angezeigt werden, um Transparenz und die Berichterstattung zu unterstützen (siehe Abschnitt 8).
5) Zusätzliche Schutzmaßnahmen für bekannte Minderjährige
Wenn wir wissen, dass Sie unter 18 sind:
- Regelmäßige Hinweise während der Nutzung. Mindestens alle 3 Stunden durchgehender Interaktion zeigen wir einen Hinweis an, eine Pause einzulegen, und dass Sie mit KI und nicht mit einem Menschen sprechen.
- Einschränkungen bei sexuellen Inhalten. Wir treffen Maßnahmen, um die Generierung von visuell sexuell expliziten Inhalten zu verhindern oder Minderjährige direkt zur Teilnahme an sexuellen Handlungen anzuleiten.
Diese Schutzmaßnahmen sind für bekannte Minderjährige standardmäßig aktiviert und können nicht global deaktiviert werden.
6) Wie wir Minderjährigkeit feststellen (datenschutzfreundlich)
Wir minimieren die Datenerhebung und verwenden nur ein binäres Minderjährigen-Flag:
-
In-App-Auswahl (alle Plattformen):
Sie wählen "18 oder älter" oder "unter 18". Wir speichern nur das daraus resultierende Flag für den Minderjährigenschutz (an/aus).
-
Android (Google Play Versionen):
Sofern verfügbar, nutzen wir Googles Age Signals API, um ausschließlich ein altersbezogenes Signal zu erhalten und gesetzlich erforderliche Schutzmaßnahmen umzusetzen. Dieses Signal verwenden wir nicht für Werbung, Profiling oder Analysen. Falls nicht verfügbar, nutzen wir die In-App-Auswahl.
-
iOS (iOS 26+):
Sofern verfügbar, nutzen wir Apples Declared Age Range-Funktion, um von Nutzern/Eltern genehmigte Altersbereiche (kein Geburtsdatum) zu erhalten. Wir ordnen diesen Bereich unserem binären Flag für Minderjährigenschutz zu. Bei älteren iOS-Versionen oder wenn die Freigabe abgelehnt wird, greifen wir auf die In-App-Auswahl zurück.
7) Daten, die wir behalten (und nicht)
- Wir verlangen weder Ihr Geburtsdatum noch Ihr genaues Alter und speichern diese auch nicht.
-
Wir speichern nur:
- Einen binären Indikator, ob Minderjährigenschutz gilt (an/aus), und
- Nicht-identifizierende Zählwerte zu Krisenhinweis-Ereignissen für Transparenz/Berichterstattung.
- Für den "alle 3 Stunden" Hinweis stützen wir uns auf Sitzungs-/Aktivitätszeiten (z. B. einen Zeitstempel der letzten Chat-Aktivität), statt Inhalte einzelner Nachrichten zu speichern.
8) Jährliche Berichte (öffentliche Transparenz)
Ab dem 1. Juli 2027 übermitteln wir dem California Office of Suicide Prevention jährlich Informationen, darunter:
- Die Zahl der im Vorjahr angezeigten Krisenhinweise;
- Unsere Protokolle zur Erkennung, Entfernung und Reaktion auf suizidale Gedanken; und
- Unsere Methoden zur Messung von suizidalen Gedanken mit evidenzbasierten Verfahren.
Übermittelte Informationen enthalten keine personenbezogenen Identifikatoren.
9) So melden Sie Bedenken
Wenn Sie der Meinung sind, dass unser Chatbot schädliche Inhalte erzeugt hat oder Sie ein Sicherheitsbedenken melden möchten:
- Nutzen Sie den In-App-Link "Bedenken melden" (in jedem Chat verfügbar), oder
-
E-Mail:
support@textwith.me
Wir prüfen Sicherheitsmeldungen, passen erforderlichenfalls unsere Schutzmaßnahmen an und dokumentieren Änderungen auf dieser Seite.
10) Änderungen an dieser Richtlinie
Wir können diese Richtlinie aktualisieren, wenn sich Gesetze und bewährte Praktiken weiterentwickeln. Wesentliche Änderungen werden oben auf dieser Seite mit einem neuen „Zuletzt aktualisiert“-Datum vermerkt.