Rekonesans w sieci #108 Zakazy mediów społecznościowych na świecie.
Cześć,
Dziś odcinek prawie monotematyczny, ale znów z poleceniami książkowymi na końcu :)
Dobrego dnia!
Kto na świecie myśli o ograniczaniu wieku dostępu do social mediów i dlaczego?
Większość dyskusji o zmianie minimalnego wieku dostępu do social mediów (dziś najpowszechniejsze ograniczenie prawne to 13 lat) obraca się wobec tego, jaki może mieć to wpływ na zdrowie psychiczne i dobrostan. Tymczasem za takimi rozwiązaniami stoją również cele polityczne i kulturowe wynikające z oczekiwań społecznych lub strategi rządów wobec rynku i firm technologicznych. Zacznijmy od krótkiego przeglądu Państw, które faktycznie pracują na nad regulacjami w tym zakresie.
🇦🇺️Australia. Pod koniec 2025 roku w Australii wejdzie w życie ograniczenie zakładania kont w mediach społecznościowych osób poniżej 16 roku życia. To jedno z pierwszych tego rodzaju ograniczeń na świecie, wymierzone jest w platformy takie jak Facebook, Instagram czy X. Firmy prowadzące media społecznościowe będą wkrótce zobowiązane do podjęcia „rozsądnych kroków”, aby uniemożliwić młodzieży posiadanie kont. Wcześniej przeprowadzony ma zostać pilotaż metod technicznych weryfikacji wieku, które rząd Australii i biuro komisarza ds. Bezpieczeństwa online bada od 2022. Przepisy w ostatnich chwili zostały zmienione, aby uwzględnić pewne wyjątki dla produktów wykorzystywanych w celach edukacyjnych, takich jak YouTube czy Google Classroom oraz serwisów udostępniających pomoc psychologiczną. Za wprowadzenie i realizacje będą odpowiedzialne platformy i to im grożą za to nowe kary. Rząd australijski uważa rozwiązanie za element większej strategii i bazuje na silnym poparciu społecznym dla regulacji big tech, ale spotkał się z krytyką tego konkretnego rozwiązania (ograniczenia wieku) również ze strony organizacji praw dzieci oraz głównego krajowego towarzystwa psychologicznego.
Poparcie dla regulacji mediów społecznościowych w Australii, badanie YouGov, 15-21.11.2024
🇳🇴️Norwegia. Tamtejszy rząd od kwietnia pracuje 2024 nad podniesieniem wieku, w którym dzieci mogą wyrazić zgodę na warunki korzystania z mediów społecznościowych z obecnych 13 lat do 15 lat. Plan ma dać możliwość wyrażenia takiej zgody przez rodziców, przed osiągnięciem tego wieku. Do weryfikacji wieku rozważany jest system cyfrowego nieobowiązkowego dokumentu BankID. Według badań norweskiego urzędu telekomunikacji ponad połowa dziewięciolatków korzysta z mediów społecznościowych. W tym kraju jedną z sił napędowych takiej regulacji wydają się rodzice, którzy chcą większej kontroli nad momentem dostępu dzieci do mediów społecznościowych oraz rząd, który nie będąc częścią Unii Europejskiej, może sam zdecydować o kwestiach regulacji technologicznych.
🇫🇷️Francja. Francja zatwierdziła w połowie 2023 prawo wymagające od platform mediów społecznościowych, takich jak TikTok czy Facebook, uzyskania zgody rodziców w przypadku osób poniżej 15 roku życia. Prawo nie weszło jednak jeszcze w życie i oczekuje na opinie Komisji Europejskiej i potwierdzenie zgodności z prawem unijnym. Brak również dokładnych informacji o tym, jak platformy miałby weryfikować wiek w sposób bardziej skuteczny niż dotychczas (czyli potwierdzenie, że mamy powyżej 13 lat podczas zakładania kont). Francja, podobnie do Australii już od kilku lat prowadzi systematyczne próby regulacji mediów społecznościowych i big tech, nie tylko w kwestii poprawy bezpieczeństwa dzieci. W publicznych wypowiedziach prezydent Francji Emanuel Macron chciałby ogólnoeuropejskiego ograniczenia wieku dostępu do social mediów do lat 15.
🇸🇬️Singapur. Regulacje dot. bezpieczeństwa w sieci tym małym, ale bogatym azjatyckim państwie przyspieszyły w 2024 roku, a rząd przebąkuje nawet o kolejnych krokach podobnych do tych z Australii (podniesienie wieku dostępu do mediów społecznościowych). Jak na razie podejście rządu Singapurskiego w kwestii podniesienia poziomu bezpieczeństwa online koncentruje się na sklepach z aplikacjami (tzw. App stores) i twórcach aplikacji, którzy są zobowiązani do przestrzegania nowych standardów określonych w nowych kodeksach postępowania w celu ograniczenia szkodliwych treści na swoich platformach. Do marca 2025 twórcy aplikacji i sklepy z aplikacjami muszą wdrożyć standardy społeczności oraz dla deweloperów m.in. wymagające, pod groźbą kary finansowej, reakcje na zgłaszane przez użytkowników treści CSAM (child sexual abuse material, wykorzystywanie seksualne dzieci) i dozwolone dla użytkowników pełnoletnich. Do marca 2026 sklepy z aplikacjami będą musiały wdrożyć systemy weryfikacji wieku w celu ograniczanie dostępu do aplikacji dozwolonych od 18 roku życia. W tym wielokulturowym państwie o restrykcyjnym prawie (nadal obowiązuje tu kara śmierci) i o ograniczone wolności słowa i prasy, silniejsze regulacje internetu wynikają w dużej mierze z politycznego celu ograniczenia konfliktów społecznych na tle religijnym i kulturowym oraz kontroli opinii publicznej.
🇨🇳️Chiny. Od 2021 roku komunistyczna partia Chin ograniczyła osobom poniżej 14. roku życia spędzania więcej niż 40 minut dziennie na Douyin, chińskiej wersji TikToka. W Chinach ograniczony jest również czas przeznaczony na gry online dla dzieci. Ograniczenia te zostały wymuszone na całym ekosystemie twórców i dostawców aplikacji. Muszą być bezpośrednio realizowane przez firmy i wbudowane do aplikacji i gier. Dzieci są podzielone na grupy wiekowe, a dostępne dla nich treści są ściśle określone. Dzieci poniżej ósmego roku życia mają ograniczony czas ekranowy do 40 minut dziennie, a dostępne treści są wyłącznie edukacyjne. Po ukończeniu ósmego roku życia ich limit wzrasta do jednej godziny, wprowadzając „treści rozrywkowe z pozytywnym przekazem”. Regulacje dot. ograniczenia dostępu łączą się w Chinach z kontrolą treści i zarządzaniem propagandą (która może też dotyczyć kwestii promocji zdrowia czy odpowiednich wg. państwa zachowań jak nauki i pracy).
Co dalej z zakazami?
Aktualny “standard” minimalnego wieku dla korzystania z mediów społecznościowych w wielu państwach wynosi 13 lat i ma swoje korzenie w amerykańskim prawie z 1998 r. zwanego Children’s Online Privacy Protection Act (COPPA), które miało chronić prywatność dzieci w wieku 12 lat i poniżej. Dziś mocno promowany jest wiek 16 lat, który nagłośniło prawo wprowadzone w Australli i książka prof. Johnata Haidta, Anxious Generation. Jak przyznaje sam autor 16 to też wiek umowny, ponieważ jakiś państwa muszą ustalić. Ostatnie dwa doroczne raporty American Psychological Association (APA) potwierdzają wpływ mediów społecznościowych na zdrowie psychiczne, ale nie wskazują konkretnego wieku, w którym dochodziłoby do znaczących zmian. Przeciętnie starsi nastolatkowie rozwinęli więcej umiejętności (lepsza kontrola impulsów, mniejsza wrażliwość na opinie rówieśników), które mogą im pomóc w poruszaniu się w mediach społecznościowych, a młodsi nastolatkowie mogą mieć przeciętnie większe trudności z korzystaniem z mediów społecznościowych w sposób dla nich bezpieczny. APA podkreśla, że platformy społecznościowe od początku zaprojektowanie były nieodpowiednio dla dzieci i młodzieży, ale to jak z nich korzystają dzieci i młodzież nie jest jednoznacznie złe. Być może jednak, jak pisze psycholożka, prof. Brown University Jacqueline Nesi, aby zacząć naprawiać sytuację, nie musimy mieć precyzyjnej odpowiedzi na pytanie o to, jak bardzo media społecznościowe wpływają na zdrowie psychiczne, jeśli zgadzamy się co do tego, że ich działania w tym zakresie wymagają lepszej regulacji i że firmy nie robią wystarczająco dużo.
Czy ograniczenia wiekowe, jakie wprowadza Australia, zadziałają bez innych regulacji jak poprawa standardu bezpieczeństwa na tych platformach niezależnie od wieku użytkownika/użytkowniczki? Rząd Australii w ostatnich chwili wprowadził do ustawy wyjątki np. związane z treściami edukacyjnymi oraz zastrzeżenia, że ograniczenie wieku nie powinno utrudniać dostępu m.in. do edukacji seksualnej oraz wyjątki na rzecz platform edukacyjnych, oraz pomocy psychologicznej. To może złagodzić negatywne skutki ustawy, ale czy będzie wystarczające lub nie wywoła skutków takich jak przeniesienie się młodych użytkowników na mniej regulowane platformy (czego możliwość pokazał chwilowa popularność chińskiej aplikacji Rednote w USA gdy miał być zablokowany TikTok). To dopiero się okaże. Podobnie nie jest jasne jak rozwiązać kwestie ochrony praw dzieci do prywatności podczas weryfikacji wieku oraz prawa do partycypacji społecznej, w sytuacji, kiedy ogrom życia społecznego dzieje się w mediach społecznościowych.
Regulacje vs. lobbing
W praktyce prawie każde państwo na świecie podejmuje już jakąś formę ograniczenia dostępu do mediów społecznościowych (np. wiek 13 lat) oraz regulacji bezpieczeństwa w sieci (np. wymagając zgłaszania i usuwania treść CSAM). Równie powszechne jest poczucie, że są to niewystarczające działania. Lobbing firm big tech od lat świetnie odwraca uwagę regulatorów od poważniejszych zmian, które wymagałby przeprojektowania mediów społecznościowych, tak aby kolejne państwa i regulacje ugrzęzły w próbach rozwiązywania problemu na poziomie szczegółowych przepisów, które zawsze będą niedoskonałe i zawsze będą wywoływać czyjeś niezadowolenie. Mam wrażenie, że kwestia ograniczania wieku dostępu trochę PR-owy ruch na skróty ze strony rządów, które chciałby lepiej regulować big tech, ale nie chcą podjąć się głębszej ingerencji w to, co powoduje problemy z bezpieczeństwem i dobrostanem (nie tylko dzieci): model biznesowy oparty o coraz silniejsze algorytmy profilujące, których celem jest ekstrakcja uwagi za pomocą najskuteczniejszych w tym treści (niezależnie od tego, jak szkodliwe są). Po pierwsze taki ruch brzmi jak poważne i jak duże działanie, ale szybko utyka na innych regulacjach i prawach. Po drugie nie jest wcale głęboką regulacją działania platform, a jedynie drobnym ograniczeniem ich zasięgu, który mogą łatwo nadrobić innymi aplikacjami lub lukami w prawie i technologii.
Czy znajdzie się rząd krajowy odważny na tyle, by postawić się big techom i to na nie przerzucić koszt naprawy sytuacji? Na pewno nie będzie nim 🇵🇱️Polska, która po raz kolejny zaprasza firmy jako inwestorów do współdecydowania o tym, jak ma wyglądać nasza polityka cyfrowa.
Który chatbot AI respektuje lepiej źródła i dziennikarzy?
Chiński model AIi DeepSeek zrobił furorę w branży generatywnej sztucznej inteligencji i zwrócił ponownie uwagę na problem uczenia LLMów na treściach, co do których firmy AI nie uzyskały zgody na wykorzystanie. Rzekomo DeepSeek uczono na modelu firmy OpenAI, która za to oskarżana jest przez wydawców i artystów o naukę swoich modeli na treściach chronionych prawem autorskim… W tym zgiełku bardzo ciekawy eksperyment przeprowadzili dziennikarze z NiemanLab, którzy postanowili sprawdzić zdolności modelu do dokładnego cytowania i przypisywania źródeł wiadomości medialnych.
Co ciekawe, w trybie standardowym, z wyłączonym wyszukiwanie w sieci, DeepSeek regularnie zachęcał do opuszczenia platformy i poszukania bardziej wiarygodnego źródła, które opublikowało dany artykuł. Po włączeniu trybu „DeepThink”, kiedy mamy mały wgląd w tzw. „głebokie rozumowanie” czyli widać jak generowane i zmienne są odpowiedzi w trakcie pracy modelu, można zobaczyć, jak uruchamiają się wbudowane zabezpieczenia DeepSeek. Na co zwróciło wiele osób, model sam się cenzoruje czasami, ale również stwierdza często, że jego odpowiedź na moje zapytania może naruszać prawa autorskie. W odpowiedzi model podaje informacje, że artykuły, które przeszukał, ale których nie może udostępnić, prawdopodobnie były objęte opłatą i że nieinformowanie o tym użytkowników mogłoby być „naruszeniem zasad”. Podczas testów innych chatbotów rzadko zdarzało się, aby model bez wstępnego monitu zwracał uwagę na paywall wydawcy wiadomości, otwarcie omawiał możliwość naruszenia praw autorskich i zapewniał użytkownikowi opcje dostępu do poszukiwanego przez niego opublikowanego materiału w sposób bardziej odpowiedzialny lub dozwolony. Raport z Columbia Journalism Review dodatkowo wykazał, że ChatGPT w swoich odpowiedziach preferuje źródła stron, które agregują treści i artykuły z innych stron, a nie oryginalne źródła. Nie oznacza to, że DeepSeek jest lepszy, bezpieczniejszy (to na pewno nie, co najmniej wersja aplikacji mobilnej wysyła nieszyfrowane dane na chińskie serwery operowane przez ByteDance, właściciela TikToka) albo że sam nie został nauczony bez kradzieży danych. Pokazuje jednak jak mało modele tworzone w USA, a zwłaszcza ChatGPT i Perplexity, są budowane z myślą o poszanowaniu praw autorskich oraz wydawców mediów, na których to wszystkie popularne modele (amerykańskie i chińskie) językowe były uczone bez zgody i wynagrodzeń.
Gdzie możemy się usłyszeć?
Byłem gościem Dawida Sypniewskiego w podkaście Strefy Technologii Uniwersytetu SWPS. Rozmawialiśmy o kosztach środowiskowych technologii takich jak AI, które wykraczają poza zużycie energii. Do zobaczenia/posłuchania na YouTube, Spotify, Apple Podcasts.
Książki
Numbers Go Up aut. Zake Faux. Książka która, choć zaczyna się i obraca głównie wokół działania i upadku części rynku kryptowalut, to najmocniej wypada, podczas odkrywania tego, że najbardziej “praktycznym” zastosowaniem kryptowalut poza spekulacją jest tradycyjna, często ekstremalnie brutalna przestępczość.
Creation Lake aut. Rachel Kushner. Kryminał (z dużą dawką historii i antropologii) o najemniczce, która infiltruje ruchy ekologiczne w poszukiwaniu (lub prowokowaniu) ich do działań niezgodnych z prawem, aby jej zleceniodawcy mogli się ich pozbyć. Postać głównej bohaterki wzorowana jest na prawdziwym agencie brytyjskiej policji, pod przykrywką manipulował i oszukał kilka kobiet, aby nawiązać z nim stosunki seksualne za wiedzą swoich przełożonych i wydobyć informacje oraz na akcjach FBI przeciw anarchistom.
Playground. aut. Richard Powers. Kolejna książka autora, co do którego mam “love-hate” relacje. Uwielbiam to, jak pisze o naturze, o relacjach ludzi z przyrodą. Wkurzam się, gdy jak Zadziwieniu (Bewilderment) sięga po tanie chwyty manipulujące emocjami, aby wzmocnić przekaz. Playground w różnorodności bohaterek i bohaterów i tym jak snują się ich opowieści, to chyba moja ulubiona książka Powersa jak do tej pory.