
Esforços da Meta em proteger jovens são lamentavelmente ineficazes, diz revisão

Uma análise conduzida por especialistas e liderada pelo ex-engenheiro sênior da Meta, Arturo Béjar, aponta que a maioria das ferramentas de segurança lançadas no Instagram não cumpre seu papel de proteger crianças e adolescentes. O estudo avaliou 47 recursos da plataforma e concluiu que 64% deles são ineficazes, classificando-os como facilmente contornáveis ou até mesmo já descontinuados. Diretrizes da Meta permitiam que a IA envolvesse criança em "conversas sensuais" Brinquedo com IA | Bichos de pelúcia com chatbot podem ser alternativa às telas? Segundo os pesquisadores, as medidas anunciadas pela Meta criam uma “falsa sensação de segurança”, ao prometer proteção contra conteúdos nocivos e interações inadequadas que, na prática, continuam acessíveis a jovens usuários. Para chegar às conclusões, os envolvidos criaram contas de teste simulando três perfis: um adolescente, um pai e um adulto mal-intencionado. Assim, observaram o funcionamento real dos mecanismos de proteção. -Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.- O relatório revelou que adultos ainda conseguiam enviar mensagens privadas para menores, apesar da promessa de bloqueio automático, uma falha corrigida apenas depois do período de testes. Além disso, adolescentes podiam iniciar conversas com estranhos em seções como Reels, expondo-se a riscos de contato indesejado. Outro problema grave foi identificado no recurso “palavras ocultas”. Mesmo diante de mensagens contendo insultos explícitos e incentivos à automutilação, não houve qualquer bloqueio ou aviso ao destinatário. Ferramentas de gerenciamento de tempo também pareceram ter sido abandonadas ou renomeadas, dificultando sua utilização. Conteúdos nocivos e algoritmos problemáticos Esforços da Meta em proteger jovens são ineficazes, diz revisão (Imagem: Dima Solomin/Unsplash) O estudo também apontou que o algoritmo do Instagram continuava a recomendar conteúdo sexual, violento ou relacionado a transtornos alimentares e uso de drogas. O sistema de autocompletar da busca ainda sugeria termos ligados a suicídio e automutilação, ampliando o risco de que adolescentes em situação de vulnerabilidade encontrassem conteúdo prejudicial. A revisão contou com a colaboração de entidades como a Molly Rose Foundation e a David’s Legacy Foundation, fundadas por pais que perderam seus filhos após exposição prolongada a ambientes tóxicos online. De acordo com o The Guardian, em resposta, a Meta rejeitou as conclusões da revisão, afirmando que o relatório “distorce” a eficácia das ferramentas disponíveis. A empresa alega que contas de jovens estão configuradas para reduzir conteúdos sensíveis, limitar contatos indesejados e oferecer opções claras de controle aos pais. Google planeja liberar Gemini para crianças com supervisão parental, diz jornal YouTube usará IA para confirmar sua idade; veja como vai funcionar a verificação VÍDEO | IA DA META CHEGOU NO WHATSAPP! Leia a matéria no Canaltech.