Zasady Bezpieczeństwa i Ujawniania Chatbota-Companion
Ostatnia aktualizacja: 11 grudnia 2025
Dotyczy: aplikacji i stron Text With obsługiwanych przez Catloaf Software ("Usługa").
1) Czym jest (a czym nie jest) nasz produkt
- Text With oferuje chatboty-companiony AI zaprojektowane do rozmowy i rozrywki.
-
Nie jest człowiekiem:
Rozmawiasz ze sztuczną inteligencją, a nie z człowiekiem. Informujemy o tym wyraźnie podczas logowania i w czacie.
-
Nie jest opieką kliniczną:
Nie zapewniamy usług medycznych, doradczych ani kryzysowych.
2) Osoby niepełnoletnie (poniżej 18 lat)
- Gdy wiemy, że użytkownik jest osobą niepełnoletnią (poniżej 18 lat), stosujemy dodatkowe zabezpieczenia (opisane poniżej).
- Ustalamy to na podstawie binarnego wyboru wieku ("Mam 18 lat lub więcej" / "Mam mniej niż 18 lat") albo zaufanych sygnałów platform (patrz sekcja 6). Nie prosimy ani nie przechowujemy daty urodzenia czy dokładnego wieku.
3) Informacje przekazywane wszystkim użytkownikom
-
Ujawnienie AI:
Wyraźna informacja, że rozmawiasz z AI (a nie z człowiekiem), zarówno przed/podczas rozpoczęcia rozmowy, jak i w interfejsie czatu.
-
Ostrzeżenie o dopasowaniu treści:
Chatboty companion mogą nie być odpowiednie dla niektórych niepełnoletnich, co jest wyświetlane w aplikacji i na naszej stronie.
4) Protokół bezpieczeństwa w sytuacjach kryzysowych i przy samookaleczeniach
Nie pozwalamy chatbotowi na rozmowę z użytkownikami, jeśli poniższy protokół nie jest wdrożony:
-
Wykrywanie i obsługa.
Automatyczne zabezpieczenia i zasady, które mają zapobiegać generowaniu treści dotyczących samobójstw lub samookaleczeń. Gdy wykryta zostanie sugestia myśli samobójczych lub samookaleczenia, zwykłe odpowiedzi są wstrzymywane i wyświetlana jest wiadomość z informacją o wsparciu kryzysowym.
-
Skierowanie do pomocy kryzysowej.
Zapewniamy dostęp do zasobów kryzysowych (np. amerykańska linia 988, Crisis Text Line; lokalne zasoby tam, gdzie są dostępne).
-
Podejście oparte na dowodach.
Metody wykrywania opierają się na uznanych, zweryfikowanych wskaźnikach. Nie przechowujemy diagnoz zdrowotnych.
-
Przejrzystość.
Niniejsza strona dokumentuje nasz protokół; aktualizujemy go, gdy metody się rozwijają.
Utrzymujemy również wewnętrzne, nieidentyfikujące liczniki, jak często wyświetlane są skierowania kryzysowe, w celu zapewnienia przejrzystości i spełnienia wymogów raportowania (patrz sekcja 8).
5) Dodatkowe zabezpieczenia dla znanych osób niepełnoletnich
Jeśli wiemy, że masz mniej niż 18 lat:
- Regularne przypomnienia podczas korzystania z aplikacji. Co najmniej co 3 godziny ciągłej rozmowy wyświetlamy przypomnienie o zrobieniu przerwy oraz o tym, że rozmawiasz z AI, a nie z człowiekiem.
- Ograniczenia treści seksualnych. Wdrażamy środki, aby zapobiec generowaniu wizualnych treści pornograficznych oraz bezpośredniemu instruowaniu osoby niepełnoletniej do czynności seksualnych.
Te zabezpieczenia są domyślnie włączone dla znanych niepełnoletnich i nie mogą być globalnie wyłączone.
6) Jak określamy status osoby niepełnoletniej (z poszanowaniem prywatności)
Minimalizujemy gromadzenie danych i używamy wyłącznie binarnego wskaźnika osoby niepełnoletniej:
-
Wybór w aplikacji (wszystkie platformy):
Wybierasz "18 lat lub więcej" lub "poniżej 18 lat". Przechowujemy jedynie wynikowy wskaźnik włączenia/wyłączenia ochrony niepełnoletnich.
-
Android (wersje Google Play):
Gdzie to możliwe, możemy korzystać z API Age Signals Google Play, aby uzyskać sygnał wiekowy wyłącznie w celu zastosowania wymaganej prawem ochrony. Nie używamy tego sygnału do reklam, profilowania ani analiz. Jeśli sygnał nie jest dostępny, polegamy na wyborze w aplikacji.
-
iOS (iOS 26+):
Jeśli dostępne, możemy korzystać z funkcji zadeklarowanego przedziału wiekowego Apple, aby uzyskać zaakceptowany przez użytkownika/rodzica przedział wiekowy (nie datę urodzenia). Przekształcamy ten zakres do naszego binarnego wskaźnika osoby niepełnoletniej. Na wcześniejszych wersjach iOS lub jeśli odmówisz udostępnienia, polegamy na wyborze w aplikacji.
7) Jakie dane przechowujemy (a jakich nie)
- Nie wymagamy ani nie przechowujemy Twojej daty urodzenia ani dokładnego wieku.
-
Przechowujemy wyłącznie:
- Binarna informacja o tym, czy stosowane są ochrony osoby niepełnoletniej (tak/nie); oraz
- Nieidentyfikujące liczniki przypadków skierowania do wsparcia kryzysowego w celach przejrzystości/raportowania.
- Jeśli chodzi o przypomnienie „co 3 godziny”, polegamy na czasie sesji/aktywności (np. znacznik ostatniej aktywności czatu), zamiast przechowywania treści każdej wiadomości.
8) Raportowanie roczne (jawność publiczna)
Od 1 lipca 2027 r. corocznie przekazujemy informacje do California Office of Suicide Prevention, w tym:
- Liczba skierowań do wsparcia kryzysowego wydanych w poprzednim roku;
- Nasze protokoły wykrywania, usuwania i reagowania na sygnały myśli samobójczych; oraz
- Nasze metody mierzenia myśli samobójczych w oparciu o podejścia potwierdzone dowodami.
Przekazane informacje nie będą zawierały danych osobowych.
9) Jak zgłaszać zastrzeżenia
Jeśli uważasz, że nasz chatbot wygenerował szkodliwą treść lub chcesz zgłosić problem dotyczący bezpieczeństwa:
- Użyj linku „Zgłoś problem” w aplikacji (dostępny w każdej rozmowie); lub
-
E-mail:
support@textwith.me
Przeglądamy zgłoszenia dotyczące bezpieczeństwa, aktualizujemy zabezpieczenia gdy jest to uzasadnione i odzwierciedlamy zmiany na tej stronie.
10) Zmiany w tej polityce
Możemy aktualizować tę politykę wraz z ewolucją przepisów i najlepszych praktyk. Istotne zmiany będą odnotowane na górze tej strony wraz z nową datą aktualizacji.