Decyzja zaprezentowana w Brukseli wpisuje się w globalny trend zaostrzania przepisów dotyczących bezpieczeństwa dzieci i młodzieży w sieci, zwłaszcza w kontekście rosnących obaw o zdrowie psychiczne nastolatków, nadużycia online oraz ekspansję treści generowanych przez sztuczną inteligencję, w tym obrazów o charakterze seksualnym z udziałem małoletnich.
Kroki podjęte przez Metę obejmują rozwinięcie technologii służącej do proaktywnego wykrywania kont, które prawdopodobnie należą do nastolatków, nawet jeśli użytkownicy zadeklarowali w profilu pełnoletniość. Firma już wcześniej wprowadziła tzw. Teen Account protections, czyli specjalny zestaw zabezpieczeń przypisywany automatycznie do kont identyfikowanych jako należące do osób niepełnoletnich, a teraz mechanizm ten zostanie zastosowany w całej Unii Europejskiej.
Jednocześnie po raz pierwszy analogiczne technologie zostaną wdrożone na Facebooku w Stanach Zjednoczonych, a w dalszej kolejności, w czerwcu, rozwiązania te mają objąć również użytkowników z Wielkiej Brytanii i pozostałych krajów UE. Meta podkreśla, że to element szerszej strategii wzmacniania barier ochronnych wokół najmłodszych użytkowników jej platform.
Serce nowego podejścia stanowi zaawansowana sztuczna inteligencja analizująca całe profile w poszukiwaniu kontekstowych wskazówek co do rzeczywistego wieku użytkownika. Nie chodzi już jedynie o prostą deklarację daty urodzenia, ale o szerszy zestaw sygnałów, które mogą sugerować, że konto faktycznie należy do osoby niepełnoletniej. Algorytmy mają identyfikować takie konta i obejmować je odpowiednimi ograniczeniami, a także wzmacniać mechanizmy przeciwdziałające obchodzeniu zasad, na przykład poprzez zakładanie nowych profili przez osoby, które wcześniej zostały uznane za zbyt młode. Tego typu rozwiązania są odpowiedzią na zarzut, że tradycyjne systemy weryfikacji wieku, oparte na samoopisaniu, są niewystarczające i łatwe do obejścia.
Równolegle do działań samej Mety narastają oczekiwania i naciski ze strony władz w Europie oraz Stanach Zjednoczonych, aby platformy społecznościowe wdrażały skuteczniejsze zabezpieczenia wiekowe i systemy kontroli treści. W wielu krajach europejskich trwają prace nad ograniczeniem dostępu nastolatków do mediów społecznościowych lub nad dodatkowymi obowiązkami nakładanymi na operatorów takich usług, co ma zmniejszyć ryzyko szkód psychicznych i społecznych wśród młodych użytkowników.
Źródło: Reuters