Raport Dojrzeć do praw. Raport z monitoringu praw i podmiotowości dziecka w Polsce w dobie społeczeństwa informacyjnego. Edycja II (2025), opracowany m.in. przez dr. Konrada Ciesiołkiewicza, Jana Herbsta, dr Annę Buchner, Katarzynę Fereniec-Błońską, Marię Wierzbicką-Tarkowską, prof. UAM dr. hab. Jacka Pyżalskiego oraz Monikę Trzcińską, stanowi dzwonek alarmowy w kwestii ochrony praw dzieci w środowisku cyfrowym w Polsce.
Oto najważniejsze wnioski i diagnozy płynące z raportu, bazujące na monitoringu praw, ocenach ekspertów, badaniach jakościowych wśród młodych osób oraz analizach prawnych:
1. Alarmujący stan ochrony praw dziecka (Indeks IPPD)
- Ochrona praw dzieci w środowisku cyfrowym w Polsce jest dalece niewystarczająca.
- Łączna ocena stanu poszanowania praw i podmiotowości dziecka w środowisku eksperckim (Indeks Praw i Podmiotowości Dziecka – IPPD) wynosi skrajnie źle, zaledwie 2,3/10 pkt, co jest wynikiem gorszym niż w poprzedniej edycji badania w 2023 roku (2,6/10 pkt).
- Najgorzej oceniane obszary to:
- Natężenie problemów związanych z mową nienawiści (0,6/10 pkt).
- Skuteczność systemu edukacji w uczeniu krytycznej oceny informacji i myślenia (0,8–0,9/10 pkt).
- Działalność dostawców platform społecznościowych (0,9/10 pkt).
- Ochrona dzieci przed cyberagresją i nękaniem (1/10 pkt).
- Dyskryminacja (zwłaszcza dzieci z grup mniejszościowych, uchodźczych/imigranckich, oraz dzieci z niepełnosprawnościami).
- W Polsce rozciąga się ogromna luka między literą prawa a praktyką.
- Jedynymi obszarami ocenionymi pozytywnie są działania organizacji pozarządowych na rzecz praw dzieci (8,4/10 pkt), a także działalność Rzecznika Praw Obywatelskich (6,3/10 pkt) i Rzecznika Praw Dziecka (6,2/10 pkt).
2. Wyzwania związane z prawem i regulacjami
- Regulacje są słabo egzekwowane i spóźnione względem zachodzących zmian technologicznych.
- Prawo zasadniczo zapewnia szeroką ochronę (Konwencja o prawach dziecka, RODO, DSA, AI Act, Konstytucja RP), ale jego egzekwowanie napotyka bariery.
- Problematyczna jest zwłaszcza ochrona prywatności i danych dzieci – brakuje skutecznej weryfikacji wieku na platformach, a kwestie takie jak sharenting (publikowanie wizerunku przez rodziców), komercjalizacja wizerunku dzieci i profilowanie reklamowe pozostają nierozwiązane.
- W polskim prawie brakuje skutecznych narzędzi do egzekwowania prawa do prywatności dziecka wobec rodziców, gdyż dziecko może wystąpić z roszczeniem dopiero po uzyskaniu pełnoletności.
- Wśród proponowanych rozwiązań wskazuje się na konieczność:
- rozważenia penalizacji zjawiska parental trollingu.
- wprowadzenia zakazu komercyjnego wykorzystywania wizerunku dzieci bez ich świadomej zgody (z progiem wieku).
- wpisania do Kodeksu rodzinnego i opiekuńczego obowiązku ochrony prywatności i wizerunku dziecka.
- umożliwienia nastolatkom (13+) samodzielnego dochodzenia ochrony dóbr osobistych.
3. Perspektywa dzieci i młodzieży w świecie cyfrowym
- Internet jest dla młodych osób przestrzenią życia. Spędzają w nim znaczną część czasu, a smartfony towarzyszą im niemal cały dzień.
- TikTok jest postrzegany jako platforma najbardziej wciągająca i uzależniająca.
- Młodzi ludzie mają ograniczoną wiedzę na temat higieny cyfrowej i ochrony prywatności. Prywatność rozumieją głównie jako anonimowość i nieujawnianie danych osobowych, rzadziej jako kontrolę nad własnym cyfrowym śladem (metadanymi).
- Wizerunek i prywatność są polami największych napięć – młodzi balansują między chęcią bycia akceptowanym a lękiem przed hejtem i utratą kontroli nad wizerunkiem.
- Praktyka robienia i rozsyłania screenów (zrzutów ekranów z prywatnych rozmów) jest integralną częścią komunikacji, ale powszechnie prowadzi do konfliktów i manipulacji.
- Młodzi krytykują sharenting (publikowanie ich zdjęć przez rodziców) oraz praktykę szkół publikowania zdjęć uczniów bez ich zgody.
- Doświadczenia z niechcianymi zdjęciami i deepfake (wykorzystywanie AI do produkcji fałszywych, często pornograficznych treści) pokazują brak poczucia bezpieczeństwa i bezradność wobec naruszeń.
4. Wyzwania związane z generatywną sztuczną inteligencją (GSI)
- GSI staje się nie tylko narzędziem pracy i nauki, ale także „towarzyszem” w codzienności młodych.
- GSI potęguje ryzyka: podsuwa spójnie brzmiące, ale fałszywe treści („halucynuje”), zaciera granicę między prawdą a fikcją oraz ułatwia cyberprzemoc (w tym deepfake) i generowanie szkodliwych materiałów.
- Pojawiają się parapersonalne relacje z narzędziami GSI, które mogą zakłócać rzeczywiste relacje interpersonalne.
- W edukacji GSI, niewłaściwie używana, może prowadzić do „poznawczego spłaszczenia” i zacierania norm uczciwości akademickiej.
- Odpowiedzią musi być profilaktyka i ochrona: zmiany legislacyjne, egzekwowanie odpowiedzialności dostawców oraz większy nacisk na edukację medialną uczącą krytycznego myślenia i świadomego korzystania z AI.
5. Rola i postawy dorosłych
- Główny ciężar ochrony dzieci spoczywa na rodzicach, którzy często rezygnują z kontroli aktywności dzieci w sieci, zwłaszcza im starsze są dzieci. Blisko 20% rodziców w praktyce w ogóle rezygnuje z jakiejkolwiek kontroli tej sfery.
- Dorośli Polacy mają ambiwalentny stosunek do prywatności: połowa z nich w ogóle nie korzysta z narzędzi ochrony prywatności (np. VPN), a część nie widzi problemu w udostępnianiu danych czy wizerunku innych osób bez zgody.
- Rodzice chętnie wierzą, że ich dzieci są bezpieczne (deklaruje tak połowa z nich), co stoi w sprzeczności z doświadczeniami dzieci i ocenami ekspertów.
- Młodzi oczekują, że rodzice będą pełnić rolę przewodników po świecie internetu, prowadząc otwarty dialog i uzasadniając reguły, zamiast stosować autorytarną kontrolę.
6. Kluczowe rekomendacje
Eksperci rekomendują systemowe przekształcenia, w tym:
- Budowę spójnego systemu ochrony praw dziecka w środowisku cyfrowym.
- Skuteczną weryfikację wieku użytkowników platform internetowych i podniesienie progu dopuszczającego do korzystania z nich.
- Wprowadzenie regulacji dotyczących pracy dzieci w sieci (nieletnich influencerów) i komercyjnego wykorzystywania ich wizerunku.
- Egzekwowanie odpowiedzialności big techów, w tym w ramach DSA, poprzez sankcje i mechanizmy nadzoru.
- Ochronę wizerunku dzieci poprzez wprowadzenie zakazu publikacji zdjęć uczniów przez szkoły i instytucje bez ich świadomej zgody.
- Wzmocnienie edukacji cyfrowej i równościowej (skierowanej do dzieci, rodziców, nauczycieli i decydentów).
Konkluzją jest, że postęp wymaga konsekwencji, współpracy i koordynacji działań, aby ochrona praw dziecka w środowisku cyfrowym stała się trwałym elementem krajowej polityki publicznej. System ochrony musi łączyć perspektywę prawną i etyczno-społeczną, afirmując podmiotowość dziecka.

Więcej informacji o raporcie: fundacja.orange.pl/prawadziecka/raport
Raport PDF: raport dojrzeć do praw 2025

