Um júri de Los Angeles proferiu uma decisão histórica contra a Meta e o Google, responsabilizando as gigantes de tecnologia pelo vício em redes sociais de uma jovem durante sua infância. No veredito anunciado pela juíza Carolyn Kuhl, as empresas foram consideradas culpadas por criar intencionalmente plataformas viciantes que comprometeram a saúde mental de uma mulher de 20 anos, identificada no processo como Kaley. Esta sentença é a primeira do gênero e deve servir como um marco jurídico para centenas de ações semelhantes que aguardam julgamento nos tribunais dos Estados Unidos.
Responsabilidade dividida entre gigantes
Após cinco semanas de julgamento, os jurados determinaram que a Meta — proprietária do Facebook, Instagram e WhatsApp — detém 70% da responsabilidade pelos danos causados à autora, enquanto o YouTube, do Google, responde pelos 30% restantes. A defesa da Meta argumentou que o uso do Instagram não foi o fator determinante para os problemas de saúde de Kaley, mas o júri rejeitou essa tese. Em nota oficial, a companhia declarou: Discordamos respeitosamente do veredito e estamos avaliando nossas opções legais.
Outras empresas como Snap e TikTok também eram rés, mas realizaram acordos confidenciais antes do início das sessões.
Durante os depoimentos, o CEO da Meta, Mark Zuckerberg, defendeu a política da empresa de proibir usuários menores de 13 anos. Entretanto, o advogado de acusação, Mark Lanier, apresentou provas documentais que contradizem essa postura pública. E-mails internos de 2019 revelaram preocupações sobre falhas na aplicação das restrições de idade. Em uma dessas mensagens, Nick Clegg, então chefe de assuntos globais, afirmou que as lacunas na fiscalização tornavam “difícil afirmar que estamos fazendo tudo o que podemos”. Relatórios de 2018 também indicaram que a empresa discutia estratégias para a retenção de pré-adolescentes, apesar da proibição oficial.
- Meta (Instagram/Facebook): 70% de responsabilidade
- Google (YouTube): 30% de responsabilidade
- Acordos prévios: Snap e TikTok
A estratégia de crescimento voltada ao público jovem foi um dos pontos centrais do debate jurídico. Lanier apresentou comunicações internas de 2015 em que Zuckerberg estabelecia metas para aumentar em 12% o tempo gasto nas redes e reverter a queda no uso por adolescentes. Outro documento de 2017 foi ainda mais direto, citando que “Mark decidiu que a principal prioridade da empresa são os adolescentes”. Zuckerberg justificou que tais métricas pertenciam a uma fase anterior da companhia e que, atualmente, o foco mudou para combater o uso problemático das plataformas por ser a conduta ética correta.
O julgamento foi acompanhado de perto por famílias que relatam perdas trágicas relacionadas ao uso excessivo de tecnologia. Lori Schott, que perdeu a filha de 18 anos por suicídio, questionou publicamente a resistência das empresas em alterar seus sistemas de recomendação. Não levaria muito tempo para alterar o conteúdo algorítmico para que as crianças não se suicidem. É tão difícil assim, sr. Zuckerberg?
, indagou ela fora do tribunal. Embora a Meta tenha mencionado o serviço Messenger Kids como uma alternativa regulamentada, o veredito reforça a pressão sobre como os algoritmos impactam o bem-estar psicológico das novas gerações.
