Ze świata

Czy AI jest zagrożeniem dla dzieci? Eksperci ostrzegają przed niebezpiecznymi chatbotami

Chłopiec z tabletem patrzy na ekran okrągłego hologramu. Wyświetlają się na nim obrazki przypominające telefoniczne aplikacje. W tle widać wieżowce.
Eksperci ostrzegają rodziców przed niebezpiecznymi aplikacjami. Fot. ImageFlow/ Shutterstock
podpis źródła zdjęcia

Eksperci zwracają uwagę na rosnące zagrożenie związane z aplikacjami opartymi na sztucznej inteligencji, takimi jak chatboty, które stają się coraz bardziej popularne wśród dzieci i młodzieży. Choć te narzędzia oferują emocjonalne interakcje, nie weryfikują wieku użytkowników, co może prowadzić do kontaktu z treściami nieodpowiednimi dla najmłodszych. Eksperci apelują o większą ostrożność i edukację dzieci w zakresie bezpiecznego korzystania z nowych technologii.

Od około trzech lat, dzięki sukcesowi Chata GPT, wielką popularność, przede wszystkim wśród dzieci i młodzieży, zyskały platformy pozwalające na kreowanie postaci za pomocą sztucznej inteligencji. Chatboty tworzą emocjonalną więź między systemem a użytkownikiem naśladując ludzką konwersację. Wykorzystują do tego duże modele językowe (LLM).


Jedną z najpopularniejszych platform jest Character AI, z której w grudniu 2024 roku korzystało ponad 27 milionów osób. Teoretycznie użytkownicy muszą mieć skończone 13 lat, ale aplikacja nie sprawdza wieku. Podobne platformy stworzyli także giganci technologiczni, w tym Meta i Google.


Alarmujący raport z USA. Sztuczna inteligencja źle wpływa na dzieci?


Graphika - amerykańska firma badająca społeczności internetowe opublikowała w marcu 2025 roku raport poświęcony chatbotom sztucznej inteligencji. Jego autorzy twierdzą, że już istniejące społeczności internetowe, w tym np. grupy promujące samookaleczenia, zaburzenia odżywiania, np. anoreksję, czy łączące amatorów rzeczywistych przestępstw (ang. real-life crime), szybko zaczęły masowo wykorzystywać chatboty. Najpopularniejsze społeczności to dwie grupy: chatboty z treściami niebezpiecznymi dla życia (ang. not safe for life, NSFL) oraz nieodpowiednimi w miejscu pracy (ang. not safe for work, NSFW).


Na pięciu wiodących platformach (poza Character AI badano także SpicyChat, Chub AI, CrushOnAI i JanitorAI) Graphika zidentyfikowała ponad 10 tys. chatbotów, które angażowały się w odgrywanie seksualnych ról z udziałem nieletnich. Inne często kreowane postacie to ekstremiści, włącznie z masowymi strzelaninami, nazistami, antysemitami czy rasistami.


Zdaniem Aleksandra Poniewierskiego, eksperta nowych technologii i członka Rady Doradców Politechniki Warszawskiej, wszystkie te aplikacje są używane także i w Polsce, w tym przez nastolatki. „Nie ma żadnej bariery wejścia, ponieważ platformy nie weryfikują wieku, są darmowe, a sztuczna inteligencja nie ma ograniczeń językowych” – powiedział w rozmowie z PAP.


Podkreślił, że dorośli na podstawie doświadczenia są w stanie odseparować kontekst od przekazywanej treści, czego dzieci nie umieją. „Sztuczna inteligencja przenosi to, czego się nauczyła w świecie dorosłych na rozmowę z dziećmi, bo nie wie, że rozmawia z nieletnim i nie umie z nim konwersować” – dodał Poniewierski.


Według Doroty Minty, psycholożki z Instytutu Wsparcia Psychologicznego ESTARE, takie chatboty to bardzo niepokojące zjawisko, ponieważ zacierają granicę między rzeczywistością, a imaginacją. „Liczne badania potwierdzają, że nadmierne uczestniczenie w wirtualnym świecie prowadzi do zaburzeń w rozwoju młodego mózgu” – dodała.


UE obroni najmłodszych przed niebezpieczeństwami AI?


Amerykański dziennik The Los Angeles Times napisał, że senator z Kalifornii Steve Padilla zaproponował w lutym 2025 roku ustawę, która ograniczy możliwości działania takich platform.


Jacek Walaszczyk, partner w firmie EY, ekspert od spraw cyberbezpieczeństwa i współautor kampanii informacyjnej realizowanej z NASK „Ostrożni w sieci”, powiedział PAP, że Polska nie potrzebuje osobnych regulacji prawnych, ponieważ w 2024 roku Unia Europejska przyjęła Akt w sprawie sztucznej inteligencji, zgodnie z którym takie chatboty mogą być zabronione.


„Akt jest w trakcie wdrażania, więc na razie jesteśmy na przedpolu bitwy i nasza młodzież może korzystać z tych aplikacji” – mówił Walaszczyk i dodał, że do końca sierpnia 2024 roku każdy kraj unijny powinien stworzyć agencję odpowiedzialną za monitorowanie i ściganie niedozwolonych narzędzi sztucznej inteligencji. „Dodatkowo przepisy nakazują, by chatbot się przedstawił, więc już od sierpnia użytkownik będzie wiedział, czy rozmawia z człowiekiem, czy z maszyną” – dodał.

UE pracuje nad rozwiązaniami mającymi zabezpieczyć dzieci i młodzież przed kontaktem z niebezpiecznymi chatbotami. Fot. Ground Picture/ Shutterstock
UE pracuje nad rozwiązaniami mającymi zabezpieczyć dzieci i młodzież przed kontaktem z niebezpiecznymi chatbotami. Fot. Ground Picture/ Shutterstock

Firma pozwana przez rodziców


The Los Angeles Times napisał, że firma Character Technologies Inc. (właściciel Character.AI) została pozwana przez wiele osób, w tym przez matkę 14-letniego chłopca, który popełnił samobójstwo. Według rodziców, odkąd rozmawiał z chatbotem nazywającym się Daenerys Targaryen (jedna z bohaterek książki i serialu „Gra o tron”), jego stan psychiczny zaczął się gwałtownie pogarszać.


Popularnym chatbotem na Character.AI był też „Psycholog”, któremu zwierzali się nastolatkowie. Według Minty, najważniejszą kwestią w takim przypadku jest odpowiedzialność za porady. „Czy ponosi ją właściciel platformy, czy twórca chatbota” – podkreśliła psycholożka. Jej zdaniem, można wykorzystywać narzędzia cyfrowe do wsparcia psychologicznego, „ale pod warunkiem połączenia ich z etyczną odpowiedzialnością zawodową”.


Jak chronić dzieci przed niebezpiecznymi narzędziami AI?


Eksperci są zgodni, że jedynym sposobem zapewnienia dzieciom bezpiecznego korzystania ze sztucznej inteligencji jest ich edukowanie.


Zdaniem Minty, trzeba „tak reagować, jakby dziecko wpadło w złe towarzystwo”. Według Walaszczyka rodzice powinni tłumaczyć, iż narzędzia sztucznej inteligencji nie są doskonałe, ponieważ opierają się tylko na tym, co jest w internecie, czyli z jednej strony na wartościowych, ale z drugiej na śmieciowych treściach. „Dzieci muszą wiedzieć, że po drugiej stronie jest maszyna, a informacje trzeba weryfikować” – dodał.


Poniewierski przypomniał, że Character.AI opiera się na Chacie GPT3,5. „To bardzo zawodne narzędzie, często podające nieprawdziwe informacje i sugerujące, także nieletnim, niepoprawne bądź wręcz niebezpieczne działania” – powiedział.

źródło: 
Więcej na ten temat