Desde a criação de perfis de usuários até o compartilhamento de conteúdo, a Meta tem sido criticada por não implementar medidas de proteção adequadas para evitar que crianças e adolescentes sejam expostos a conteúdos prejudiciais. Pesquisadores apontam que algoritmos de recomendação da empresa podem, inadvertidamente, promover conteúdos que exploram a vulnerabilidade de crianças, expondo-as a riscos não apenas emocionais, mas também físicos. O debate sobre a responsabilidade das empresas de tecnologia em proteger seus usuários mais jovens nunca foi tão urgente.
Além disso, a recente onda de denúncias e investigações em torno da Meta destaca a necessidade de uma regulamentação mais rigorosa. Enquanto outros países, como a União Europeia, avançam na criação de legislações que visam proteger dados e direitos das crianças online, o Brasil ainda luta para implementar uma aplicação eficaz da Lei Geral de Proteção de Dados (LGPD). As lacunas regulatórias podem deixar as crianças desprotegidas em um ambiente digital que muitas vezes prioriza lucros em detrimento da segurança.
A pressão por responsabilidade e ação proativa está crescendo, não apenas entre os legisladores, mas também entre os usuários que exigem mudanças. Campanhas de conscientização e ações coletivas têm surgido em resposta a essas preocupações, com a sociedade civil se mobilizando para exigir que a Meta e outras plataformas de redes sociais façam mais para garantir a segurança dos jovens na internet. A pergunta que fica é: até que ponto a Meta estará disposta a ir para mudar essa narrativa e, mais importante, proteger as crianças sob sua influência?
À medida que as discussões sobre ética digital e responsabilidade corporativa se intensificam, o futuro da Meta e de outras gigantes da tecnologia ficará em jogo. A pressão pública e a regulamentação crescente podem ser o catalisador necessário para que essas empresas reavaliem suas práticas e priorizem a proteção de seus usuários, especialmente os mais vulneráveis.