Australijski krajobraz mediów społecznościowych przeszedł trzęsienie ziemi 10 grudnia 2025 roku wraz z wejściem w życie ustawy Online Safety Amendment (Social Media Minimum Age) Bill 2024.
Ustawodawstwo to, uchwalone przez parlament pod koniec 2024 roku, ustanawia obowiązkowy minimalny wiek 16 lat dla posiadania konta na określonych platformach społecznościowych. To proaktywny ruch rządu australijskiego, mający na celu przejęcie kontroli nad dostępem cyfrowym nieletnich, nakładając na firmy technologiczne prawną odpowiedzialność za wdrożenie solidnych systemów weryfikacji wieku. W przeciwieństwie do wcześniejszych wytycznych, prawo to nie pozwala na obejście zakazu za zgodą rodziców, co stanowi jednoznaczne stanowisko w kwestii tego, kto decyduje o interakcjach dzieci w sieci.
Zakaz obejmuje najpopularniejsze platformy społecznościowe i do udostępniania treści, w których centralną rolę odgrywają interakcje i algorytmiczne kanały. Zgodnie z wytycznymi eSafety Commissioner, początkowa lista obejmuje YouTube, X (dawniej Twitter), Facebook, Instagram, TikTok, Snapchat, Reddit, Twitch, Threads i Kick.
Nie wszystkie usługi online wpadają w tę sieć. Aplikacje zaprojektowane głównie do komunikacji, takie jak WhatsApp, lub te przeznaczone dla dzieci, takie jak YouTube Kids i Messenger Kids, są obecnie wyłączone. Prawo zawiera jednak dynamiczny zapis: platformy mogą zostać dodane, jeśli osiągną określony próg użytkowników lub regulator uzna, że przekształciły się w usługę przypominającą media społecznościowe. Oznacza to, że lista nie jest statyczna, a platformy takie jak Steam czy Bluesky mogłyby w przyszłości stanąć przed ograniczeniami.
Urzędnicy bronią zakazu jako niezbędnej tarczy dla zdrowia psychicznego i bezpieczeństwa australijskiej młodzieży. Głównym argumentem jest to, że udokumentowane ryzyka związane z mediami społecznościowymi – w tym narażenie na cyberprzemoc, szkodliwe treści, drapieżcze zachowania i negatywne skutki uzależniających algorytmów – przeważają nad korzyściami dla dzieci poniżej 16. roku życia.
Stanowisko rządu jest jednoznacznie paternalistyczne, twierdząc, że to on, a nie poszczególni rodzice, jest najlepiej przygotowany do oceny dobra wspólnego. To podejście pomija subtelne korzyści, jakie niektórzy nastolatkowie mogą czerpać, takie jak znajdowanie wspierających społeczności dla osób z grup marginalizowanych czy budowanie kreatywnych portfolio, na rzecz szerokiej, ochronnej miary.
Aby zakaz mógł funkcjonować, firmy mediów społecznościowych muszą podjąć „rozsądne kroki”, aby zapobiec dostępowi do kont osobom poniżej 16. roku życia. Zapoczątkowało to nową erę weryfikacji wieku dla australijskich użytkowników. Dopuszczalne metody są wciąż udoskonalane, ale oczekuje się, że będą obejmować mieszankę weryfikacji dokumentów (takich jak prawo jazdy), sprawdzeń kart kredytowych lub technologii szacowania wieku na podstawie twarzy.
Kara finansowa za brak zgodności jest wysoka, a grzywny dla korporacji sięgają nawet 50 milionów dolarów. Zmusiło to platformy do szybkiego opracowania i integracji systemów blokujących dostęp wiekowy. Dla użytkowników oznacza to, że każdy, kto loguje się na platformę objętą ograniczeniami z Australii, może zostać poproszony o udowodnienie, że ma 16 lat lub więcej. eSafety Commissioner podkreśla, że systemy te powinny szanować prywatność i zawierać zabezpieczenia przed kradzieżą tożsamości, ale krytycy wskazują na inherentne ryzyko tworzenia ogromnych nowych baz danych wrażliwych informacji osobistych.
Jeśli masz mniej niż 16 lat i masz konto na platformie objętej zakazem, odpowiedzialność za jego usunięcie spoczywa na firmie. Młodzi ludzie sami nie ponoszą bezpośrednich grzywien ani sankcji prawnych. Platformy są zobowiązane do dezaktywacji lub usunięcia kont, które zidentyfikują jako należące do nieletnich.
Dla rodzin oznacza to pomoc dzieciom w pobraniu ich danych i pożegnaniu się z ich cyfrowymi przestrzeniami. Znaczącą wadą, jak zauważają krytycy, jest utrata wbudowanych narzędzi bezpieczeństwa. Konta młodzieżowe często są wyposażone w rozszerzone kontrolki rodzicielskie i filtry treści. Bez konta nastolatek przeglądający platformę otwarcie może faktycznie napotkać mniej wyselekcjonowany i potencjalnie bardziej szkodliwy strumień treści, co częściowo niweczy cel ustawy.
Zakaz nie spotkał się z powszechnym aplauzem. Organizacje takie jak UNICEF Australia uznają dobre intencje, ale twierdzą, że jest to tępe narzędzie, które nie rozwiązuje przyczyn szkód w sieci. Opowiadają się za uczynieniem platform bezpieczniejszymi poprzez projektowanie i współregulację z młodymi ludźmi, a nie za całkowitym wykluczeniem.
Bardziej bezpośrednia krytyka pochodzi od obrońców praw cyfrowych. Instytut Cato ostrzega, że prawo stwarza poważne ryzyko dla prywatności, wymuszając powszechną weryfikację wieku, co ochładza wolność wypowiedzi wszystkich Australijczyków, którzy muszą teraz ważyć anonimowość wobec identyfikacji. Całkowicie ogranicza również wypowiedzi nieletnich, potencjalnie tłumiąc młodych aktywistów, artystów lub osoby szukające schronienia w społecznościach online niedostępnych w ich fizycznym otoczeniu.
Australijski eksperyment jest obserwowany na całym świecie jako studium przypadku odgórnych ograniczeń wiekowych w sieci. Innowacyjnym spostrzeżeniem jest tu to, że prawdziwe bezpieczeństwo może nie pochodzić z murów, ale z mostów. Przyszła polityka mogłaby skierować się w stronę obowiązkowych standardów bezpieczeństwa przez projekt dla wszystkich platform, zmuszając je do budowania zdrowszych algorytmów i silniejszej moderacji od podstaw.
Wyposażenie młodych ludzi w zaawansowaną edukację w zakresie kompetencji cyfrowych – ucząc ich krytycznej oceny algorytmów, zarządzania danymi i radzenia sobie z konfliktami online – może okazać się bardziej wzmacniające niż całkowity zakaz. Rozmowa przesuwa się z samego dostępu na jakość środowiska cyfrowego, sugerując, że kolejną granicą bezpieczeństwa online nie jest trzymanie dzieci z dala od platform, ale fundamentalna transformacja platform, na których się znajdują.