Nowe funkcje, dostępne w ustawieniach aplikacji, pozwalają rodzicom m.in. ograniczyć godziny, w których dziecko może korzystać z ChatGPT (narzędzie jest przeznaczone dla osób powyżej 13. roku życia), a także zadecydować, z których trybów chatbota nastolatek może korzystać – np. czy ma dostęp do funkcji głosowych, generowania obrazów czy opcji uwzględniającej wcześniejsze rozmowy. Rodzice mogą także włączyć wersję ograniczającą treści związane m.in. z dietami, tematami seksualnymi czy mową nienawiści.
Presja opinii publicznej wymusiła zmiany w ChatGPT
OpenAI wprowadziło te rozwiązania pod rosnącą presją opinii publicznej. Od startu w końcu 2022 r. ChatGPT zyskał ponad 700 mln użytkowników, ale wraz z popularnością nasilały się przypadki niepokojących zachowań związanych z nadmiernym korzystaniem z narzędzia. Pozew rodziny Adama Raine’a zarzuca firmie i jej prezesowi Samowi Altmanowi, że chatbot „systematycznie izolował” nastolatka od rodziny i przyczynił się do jego decyzji o samobójstwie.
– Od dłuższego czasu czuliśmy pilną potrzebę wprowadzenia takich rozwiązań – podkreśliła Lauren Jonas, szefowa ds. dobrostanu młodzieży w OpenAI, dodając, że firma stara się jak najszybciej udostępniać narzędzia poprawiające bezpieczeństwo młodych użytkowników.
Dostosowywanie odpowiedzi ChatGPT do młodszych odbiorców w planach OpenAI
Aby skorzystać z nowych opcji, rodzic musi wysłać dziecku zaproszenie e-mailem. Po jego zaakceptowaniu zyskuje dostęp do panelu, w którym może ustalać wspomniane ograniczenia. System przewiduje również możliwość wysyłania do rodziców alertów – za pośrednictwem e-maila, SMS-ów lub powiadomień w aplikacji – jeśli ChatGPT wykryje, że nastolatek może znajdować się w kryzysie psychicznym. Decyzję o uruchomieniu takiego alarmu podejmuje jednak człowiek, a nie sam algorytm.
Lauren Jonas zaznaczyła, że OpenAI nie udostępnia rodzicom treści rozmów ich dzieci z chatbotem. Powiadomienia mają jedynie sygnalizować potencjalnie niebezpieczną sytuację, by umożliwić opiekunom podjęcie rozmowy z dzieckiem, przy zachowaniu jego prywatności.
Firma z San Francisco zapowiedziała również prace nad technologią pozwalającą automatycznie określać wiek użytkowników. Ma ona pomóc w dostosowywaniu odpowiedzi ChatGPT do odbiorców poniżej 18. roku życia.