Zasady bezpieczeństwa i ujawniania dla chatbota towarzyszącego
Ostatnia aktualizacja: 11 grudnia 2025
Dotyczy: aplikacji Text With oraz usług internetowych obsługiwanych przez Catloaf Software ("Usługa").
1) Czym jest (a czym nie jest) nasz produkt
- Text With oferuje chatboty towarzyszące AI zaprojektowane do rozmowy i rozrywki.
-
Nie jest człowiekiem:
Rozmawiasz ze sztuczną inteligencją, a nie z człowiekiem. Informujemy o tym wyraźnie podczas logowania i w czacie.
-
To nie jest opieka kliniczna:
Nie zapewniamy usług medycznych, doradczych ani kryzysowych.
2) Osoby niepełnoletnie (poniżej 18 lat)
- Gdy wiemy, że użytkownik jest osobą niepełnoletnią (poniżej 18 lat), stosujemy dodatkowe zabezpieczenia (opisane poniżej).
- Ustalamy to na podstawie binarnego wyboru wieku ("Mam 18 lat lub więcej" / "Mam mniej niż 18 lat") albo zaufanych sygnałów platform (patrz sekcja 6). Nie prosimy ani nie przechowujemy daty urodzenia czy dokładnego wieku.
3) Informacje przekazywane wszystkim użytkownikom
-
Ujawnienie AI:
Wyraźna informacja, że rozmawiasz z AI (a nie z człowiekiem), przed rozpoczęciem rozmowy/na jej początku oraz w interfejsie czatu.
-
Informacja o odpowiedniości:
Chatboty towarzyszące mogą nie być odpowiednie dla niektórych osób niepełnoletnich; informacja jest wyświetlana w aplikacji i na naszej stronie.
4) Protokół bezpieczeństwa w sytuacjach kryzysowych i samookaleczeń
Nie pozwalamy chatbotowi na rozmowę z użytkownikami, jeśli poniższy protokół nie jest wdrożony:
-
Wykrywanie i obsługa.
Automatyczne zabezpieczenia i zasady, które mają zapobiegać generowaniu treści dotyczących samookaleczeń lub samobójstw. Gdy wykryta zostanie sugestia myśli samobójczych lub samookaleczenia, zwykłe odpowiedzi są wstrzymywane i wyświetlana jest wiadomość z informacją o wsparciu kryzysowym.
-
Skierowanie do pomocy kryzysowej.
Zapewniamy dostęp do zasobów kryzysowych (np. amerykańska linia 988 Lifeline, Crisis Text Line; lokalne zasoby tam, gdzie są dostępne).
-
Podejście oparte na dowodach.
Metody wykrywania opierają się na uznanych wskaźnikach opartych na dowodach. Nie przechowujemy diagnoz zdrowotnych.
-
Przejrzystość.
Niniejsza strona dokumentuje nasz protokół; aktualizujemy go, gdy metody się rozwijają.
Utrzymujemy również wewnętrzne, nieidentyfikujące liczniki tego, jak często wyświetlane są skierowania do wsparcia kryzysowego, w celu zapewnienia przejrzystości i spełnienia wymogów raportowania (patrz sekcja 8).
5) Dodatkowe zabezpieczenia dla zidentyfikowanych osób niepełnoletnich
Jeśli wiemy, że masz mniej niż 18 lat:
- Regularne przypomnienia podczas korzystania z aplikacji. Co najmniej co 3 godziny ciągłej rozmowy wyświetlamy przypomnienie o zrobieniu przerwy oraz o tym, że rozmawiasz z AI, a nie z człowiekiem.
- Ograniczenia treści seksualnych. Wdrażamy środki, aby zapobiec generowaniu wizualnych treści o charakterze seksualnym oraz bezpośredniemu instruowaniu osoby niepełnoletniej, by podejmowała czynności seksualne.
Te zabezpieczenia są domyślnie włączone dla zidentyfikowanych osób niepełnoletnich i nie mogą być globalnie wyłączone.
6) Jak określamy status osoby niepełnoletniej (z poszanowaniem prywatności)
Minimalizujemy gromadzenie danych i używamy wyłącznie binarnej flagi osoby niepełnoletniej:
-
Wybór w aplikacji (wszystkie platformy):
Wybierasz "18 lat lub więcej" lub "poniżej 18 lat". Przechowujemy jedynie wynikowy wskaźnik włączenia/wyłączenia ochrony niepełnoletnich.
-
Android (wersje Google Play):
Gdzie to możliwe, możemy korzystać z API Age Signals Google Play, aby uzyskać sygnał wiekowy wyłącznie w celu zastosowania wymaganej prawem ochrony. Nie używamy tego sygnału do reklam, profilowania ani analiz. Jeśli sygnał nie jest dostępny, polegamy na wyborze w aplikacji.
-
iOS (iOS 26+):
Jeśli jest to dostępne, możemy korzystać z funkcji zadeklarowanego przedziału wiekowego Apple, aby uzyskać zaakceptowany przez użytkownika/rodzica przedział wiekowy (nie datę urodzenia). Przekształcamy ten przedział w naszą binarną flagę osoby niepełnoletniej. Na wcześniejszych wersjach iOS lub jeśli odmówisz udostępnienia, polegamy na wyborze w aplikacji.
7) Jakie dane przechowujemy (a jakich nie)
- Nie wymagamy ani nie przechowujemy Twojej daty urodzenia ani dokładnego wieku.
-
Przechowujemy wyłącznie:
- Binarną flagę określającą, czy stosowane są zabezpieczenia dla osób niepełnoletnich (tak/nie); oraz
- Nieidentyfikujące liczniki przypadków skierowania do wsparcia kryzysowego na potrzeby przejrzystości/raportowania.
- Jeśli chodzi o przypomnienie „co 3 godziny”, polegamy na czasie sesji/aktywności (np. znacznik ostatniej aktywności czatu), zamiast przechowywania treści każdej wiadomości.
8) Raportowanie roczne (jawność publiczna)
Począwszy od 1 lipca 2027 r. będziemy corocznie przekazywać informacje do California Office of Suicide Prevention, w tym:
- Liczba skierowań do wsparcia kryzysowego wydanych w poprzednim roku;
- Nasze protokoły wykrywania, usuwania i reagowania na myśli samobójcze; oraz
- Nasze metody pomiaru myśli samobójczych z wykorzystaniem podejść opartych na dowodach.
Przekazane informacje nie będą zawierały identyfikatorów osobistych.
9) Jak zgłaszać problemy
Jeśli uważasz, że nasz chatbot wygenerował szkodliwą treść lub chcesz zgłosić problem dotyczący bezpieczeństwa:
- Użyj linku „Zgłoś problem” w aplikacji (dostępny w każdej rozmowie); lub
-
E-mail:
support@textwith.me
Przeglądamy zgłoszenia dotyczące bezpieczeństwa, aktualizujemy zabezpieczenia, gdy jest to uzasadnione, i odzwierciedlamy zmiany na tej stronie.
10) Zmiany w tej polityce
Możemy aktualizować tę politykę wraz z ewolucją przepisów i najlepszych praktyk. Istotne zmiany będą odnotowane na górze tej strony wraz z nową datą aktualizacji.