Zgodnie z unijną ustawą o usługach cyfrowych, która weszła w życie w zeszłym roku, firmy technologiczne muszą podejmować więcej działań w celu zwalczania nielegalnych i szkodliwych treści na swoich platformach. Komisja Europejska ogłosiła, że zdecydowała się na dokładne zbadanie działalności Facebooka i Instagrama, obawiając się, że nie podjęły one wystarczających działań w celu ochrony dzieci. Meta we wrześniu przedstawiła raport oceny ryzyka.
"Komisja obawia się, że systemy Facebooka i Instagrama, w tym ich algorytmy, mogą stymulować uzależnienia behawioralne u dzieci oraz prowadzić do tzw. 'efektów króliczej nory'", czytamy w oświadczeniu Komisji. "Dodatkowo Komisja jest zaniepokojona metodami weryfikacji wieku stosowanymi przez Meta." Obawy regulatora dotyczą również dostępu dzieci do nieodpowiednich treści.
Meta twierdzi, że posiada już wiele narzędzi online mających na celu ochronę dzieci.
Spółka już wcześniej była na celowniku UE z powodu dezinformacji wyborczej, co jest kluczowym problemem w kontekście nadchodzących wyborów do Parlamentu Europejskiego w przyszłym miesiącu. Naruszenia ustawy o usługach cyfrowych mogą skutkować karami sięgającymi nawet 6 proc. rocznego globalnego obrotu firmy.