Dojrzeć do praw raport z monitoringu praw i podmiotowości dziecka w Polsce w dobie społeczeństwa informacyjnego 2025

Raport Dojrzeć do praw. Raport z monitoringu praw i podmiotowości dziecka w Polsce w dobie społeczeństwa informacyjnego. Edycja II (2025), opracowany m.in. przez dr. Konrada Ciesiołkiewicza, Jana Herbsta, dr Annę Buchner, Katarzynę Fereniec-Błońską, Marię Wierzbicką-Tarkowską, prof. UAM dr. hab. Jacka Pyżalskiego oraz Monikę Trzcińską, stanowi dzwonek alarmowy w kwestii ochrony praw dzieci w środowisku cyfrowym w Polsce.

Oto najważniejsze wnioski i diagnozy płynące z raportu, bazujące na monitoringu praw, ocenach ekspertów, badaniach jakościowych wśród młodych osób oraz analizach prawnych:

1. Alarmujący stan ochrony praw dziecka (Indeks IPPD)

  • Ochrona praw dzieci w środowisku cyfrowym w Polsce jest dalece niewystarczająca.
  • Łączna ocena stanu poszanowania praw i podmiotowości dziecka w środowisku eksperckim (Indeks Praw i Podmiotowości Dziecka – IPPD) wynosi skrajnie źle, zaledwie 2,3/10 pkt, co jest wynikiem gorszym niż w poprzedniej edycji badania w 2023 roku (2,6/10 pkt).
  • Najgorzej oceniane obszary to:
    • Natężenie problemów związanych z mową nienawiści (0,6/10 pkt).
    • Skuteczność systemu edukacji w uczeniu krytycznej oceny informacji i myślenia (0,8–0,9/10 pkt).
    • Działalność dostawców platform społecznościowych (0,9/10 pkt).
    • Ochrona dzieci przed cyberagresją i nękaniem (1/10 pkt).
    • Dyskryminacja (zwłaszcza dzieci z grup mniejszościowych, uchodźczych/imigranckich, oraz dzieci z niepełnosprawnościami).
  • W Polsce rozciąga się ogromna luka między literą prawa a praktyką.
  • Jedynymi obszarami ocenionymi pozytywnie są działania organizacji pozarządowych na rzecz praw dzieci (8,4/10 pkt), a także działalność Rzecznika Praw Obywatelskich (6,3/10 pkt) i Rzecznika Praw Dziecka (6,2/10 pkt).

2. Wyzwania związane z prawem i regulacjami

  • Regulacje są słabo egzekwowane i spóźnione względem zachodzących zmian technologicznych.
  • Prawo zasadniczo zapewnia szeroką ochronę (Konwencja o prawach dziecka, RODO, DSA, AI Act, Konstytucja RP), ale jego egzekwowanie napotyka bariery.
  • Problematyczna jest zwłaszcza ochrona prywatności i danych dzieci – brakuje skutecznej weryfikacji wieku na platformach, a kwestie takie jak sharenting (publikowanie wizerunku przez rodziców), komercjalizacja wizerunku dzieci i profilowanie reklamowe pozostają nierozwiązane.
  • W polskim prawie brakuje skutecznych narzędzi do egzekwowania prawa do prywatności dziecka wobec rodziców, gdyż dziecko może wystąpić z roszczeniem dopiero po uzyskaniu pełnoletności.
  • Wśród proponowanych rozwiązań wskazuje się na konieczność:
    • rozważenia penalizacji zjawiska parental trollingu.
    • wprowadzenia zakazu komercyjnego wykorzystywania wizerunku dzieci bez ich świadomej zgody (z progiem wieku).
    • wpisania do Kodeksu rodzinnego i opiekuńczego obowiązku ochrony prywatności i wizerunku dziecka.
    • umożliwienia nastolatkom (13+) samodzielnego dochodzenia ochrony dóbr osobistych.

3. Perspektywa dzieci i młodzieży w świecie cyfrowym

  • Internet jest dla młodych osób przestrzenią życia. Spędzają w nim znaczną część czasu, a smartfony towarzyszą im niemal cały dzień.
  • TikTok jest postrzegany jako platforma najbardziej wciągająca i uzależniająca.
  • Młodzi ludzie mają ograniczoną wiedzę na temat higieny cyfrowej i ochrony prywatności. Prywatność rozumieją głównie jako anonimowość i nieujawnianie danych osobowych, rzadziej jako kontrolę nad własnym cyfrowym śladem (metadanymi).
  • Wizerunek i prywatność są polami największych napięć – młodzi balansują między chęcią bycia akceptowanym a lękiem przed hejtem i utratą kontroli nad wizerunkiem.
  • Praktyka robienia i rozsyłania screenów (zrzutów ekranów z prywatnych rozmów) jest integralną częścią komunikacji, ale powszechnie prowadzi do konfliktów i manipulacji.
  • Młodzi krytykują sharenting (publikowanie ich zdjęć przez rodziców) oraz praktykę szkół publikowania zdjęć uczniów bez ich zgody.
  • Doświadczenia z niechcianymi zdjęciami i deepfake (wykorzystywanie AI do produkcji fałszywych, często pornograficznych treści) pokazują brak poczucia bezpieczeństwa i bezradność wobec naruszeń.

4. Wyzwania związane z generatywną sztuczną inteligencją (GSI)

  • GSI staje się nie tylko narzędziem pracy i nauki, ale także „towarzyszem” w codzienności młodych.
  • GSI potęguje ryzyka: podsuwa spójnie brzmiące, ale fałszywe treści („halucynuje”), zaciera granicę między prawdą a fikcją oraz ułatwia cyberprzemoc (w tym deepfake) i generowanie szkodliwych materiałów.
  • Pojawiają się parapersonalne relacje z narzędziami GSI, które mogą zakłócać rzeczywiste relacje interpersonalne.
  • W edukacji GSI, niewłaściwie używana, może prowadzić do „poznawczego spłaszczenia” i zacierania norm uczciwości akademickiej.
  • Odpowiedzią musi być profilaktyka i ochrona: zmiany legislacyjne, egzekwowanie odpowiedzialności dostawców oraz większy nacisk na edukację medialną uczącą krytycznego myślenia i świadomego korzystania z AI.

5. Rola i postawy dorosłych

  • Główny ciężar ochrony dzieci spoczywa na rodzicach, którzy często rezygnują z kontroli aktywności dzieci w sieci, zwłaszcza im starsze są dzieci. Blisko 20% rodziców w praktyce w ogóle rezygnuje z jakiejkolwiek kontroli tej sfery.
  • Dorośli Polacy mają ambiwalentny stosunek do prywatności: połowa z nich w ogóle nie korzysta z narzędzi ochrony prywatności (np. VPN), a część nie widzi problemu w udostępnianiu danych czy wizerunku innych osób bez zgody.
  • Rodzice chętnie wierzą, że ich dzieci są bezpieczne (deklaruje tak połowa z nich), co stoi w sprzeczności z doświadczeniami dzieci i ocenami ekspertów.
  • Młodzi oczekują, że rodzice będą pełnić rolę przewodników po świecie internetu, prowadząc otwarty dialog i uzasadniając reguły, zamiast stosować autorytarną kontrolę.

6. Kluczowe rekomendacje

Eksperci rekomendują systemowe przekształcenia, w tym:

  • Budowę spójnego systemu ochrony praw dziecka w środowisku cyfrowym.
  • Skuteczną weryfikację wieku użytkowników platform internetowych i podniesienie progu dopuszczającego do korzystania z nich.
  • Wprowadzenie regulacji dotyczących pracy dzieci w sieci (nieletnich influencerów) i komercyjnego wykorzystywania ich wizerunku.
  • Egzekwowanie odpowiedzialności big techów, w tym w ramach DSA, poprzez sankcje i mechanizmy nadzoru.
  • Ochronę wizerunku dzieci poprzez wprowadzenie zakazu publikacji zdjęć uczniów przez szkoły i instytucje bez ich świadomej zgody.
  • Wzmocnienie edukacji cyfrowej i równościowej (skierowanej do dzieci, rodziców, nauczycieli i decydentów).

Konkluzją jest, że postęp wymaga konsekwencji, współpracy i koordynacji działań, aby ochrona praw dziecka w środowisku cyfrowym stała się trwałym elementem krajowej polityki publicznej. System ochrony musi łączyć perspektywę prawną i etyczno-społeczną, afirmując podmiotowość dziecka.

Prawa dziecka w cyfrowym świecie, grafika wygenerowana przez NotebookLM
Prawa dziecka w cyfrowym świecie, grafika wygenerowana przez NotebookLM

Więcej informacji o raporcie: fundacja.orange.pl/prawadziecka/raport

Raport PDF: raport dojrzeć do praw 2025