Olá visitante! Acesse sua conta ou cadastre-se

Evidências

20:01 às 23:59

SEGURANÇA NAS REDES SOCIAIS

INSTAGRAM E FACEBOOK PASSAM A IDENTIFICAR VERACIDADE DE MENOR DE IDADE NO BRASIL

A Meta, responsável pelo Instagram e Facebook, anunciou nas últimas horas uma nova tecnologia de IA para identificar a idade dos usuários menores de 13 anos, nas redes sociais. Segundo a empresa, caso identifique que a conta pertence a um menor de idade, abaixo desta faixa etária, ela será desativada, e o usuário vai precisar enviar um comprovante de idade para evitar a exclusão. A Meta reforça que é preciso ter pelo menos 13 anos para criar uma conta no Instagram e no Facebook. A novidade chega ao Brasil, nos EUA e na União Europeia.

 

SAIBA COMO A NOVA TECNOLOGIA VAI FUNCIONAR

Segundo a empresa, o sistema não fará reconhecimento facial, ao contrário de outras redes que usam esse tipo de tecnologia para verificar a idade dos usuários. Muitas plataformas passaram a exigir selfies ou documentos de identificação em meio à pressão por medidas que reforcem a segurança de crianças e adolescentes online.

"Essa tecnologia permite que nossa IA escaneie fotos e vídeos em busca de pistas visuais sobre a idade de uma pessoa que o texto possa não perceber. Nossa IA analisa temas gerais e pistas visuais, por exemplo altura ou estrutura óssea, para estimar a idade geral de alguém", afirmou a empresa.

A companhia diz que saber a idade de alguém no ambiente online " é um desafio complexo e de toda a indústria" e cita casos em que alguns menores informam um aniversário de adulto ao criar uma conta em rede social. Por isso, diz estar usando tecnologia sofisticada para identificar essas pessoas.

Medidas mais avançadas devem chegar aos poucos. A Meta afirma que parte das melhorias já está disponível globalmente, mas que recursos como a análise visual e ações reforçadas contra evasão serão liberados de forma gradual.

 

Contas de Adolescente e expansão para o Brasil

Nas contas de adolescentes, há uma série de restrições por padrão. Ao colocar a idade correta, a conta deles fica privada (logo, não é um perfil aberto), tem filtro de conteúdo sensível, tem limite de tempo de uso diário, não pode fazer lives e tem filtros anti-bullying. Para desativar alguma dessas opções, é necessário ativar a supervisão parental, conectando o perfil do responsável com o do adolescente.

Empresa afirma que, desde 2024, colocou centenas de milhões de adolescentes nessas configurações. Agora, diz que vai ampliar uma tecnologia que tenta identificar perfis que seriam de adolescentes mesmo quando a data de nascimento informada é de adulto.

Meta afirma que vai expandir essa tecnologia para os 27 países da União Europeia e para o Brasil no Instagram. A empresa diz que também vai levar o recurso ao Facebook, começando pelos EUA.

 

Meta quer verificação de idade nas lojas de aplicativos

Meta defende que a verificação de idade aconteça no nível das lojas de aplicativos e dos sistemas operacionais. A empresa argumenta que isso criaria um ponto central e consistente para checagem, sem exigir que cada app aplique regras diferentes.

No Brasil, a empresa cita o ECA Digital como base para que a aferição de idade ocorra primeiro nas lojas de apps. A Meta diz que, após a aprovação dos pais para o download, as lojas deveriam repassar aos aplicativos um "sinal de idade" para ativar automaticamente proteções adequadas.

Uma pesquisa encomendada pela Meta ao instituto Ipsos apontou apoio de pais brasileiros a regras de a regras de aprovação para instalação de apps. O levantamento, feito com 1.000 responsáveis por pelo menos um filho menor de 18 anos, registrou que 86% apoiam uma lei que exija autorização para menores de 16 anos baixarem aplicativos; 62% preferem que essa aprovação ocorra pela loja de apps, e não dentro de cada aplicativo.

 

GOVERNO FEDERAL SOBE CLASSIFICAÇÃO DO YOUTUBE PARA 16 ANOS

Já está em vigor desde essa terça-feira (5) a nova classificação indicativa do YouTube, aumentada de 14 para 16 anos, depois de uma nota técnica do Ministério da Justiça e Segurança Pública (MJSP) apontar a presença de conteúdo prejudicial para menores de idade na plataforma. A mudança faz parte do ECA Digital, com o objetivo de indicar a faixa etária ecomendada para o uso de serviços online. O YouTube, que pertence ao Google, pode recorrer da decisão.

A medida, oficializada por portaria publicada no Diário Oficial da União nesta terça-feira (5/5), trata-se de um ato administrativo, ou seja, não depende de aprovação do Congresso para entrar em vigor. Na prática, a alteração não impede o acesso, mas funciona como um alerta. A classificação indicativa é orientativa e ajuda pais e responsáveis a entender que tipo de conteúdo crianças e adolescentes podem encontrar. Assim, o YouTube continua disponível, mas o governo recomenda que menores de 16 anos não utilizem o serviço sem supervisão.

A medida leva em conta não apenas os vídeos, mas também o funcionamento da plataforma. Diferentemente da televisão tradicional, o YouTube utiliza algoritmos que sugerem conteúdos automaticamente, muitas vezes conduzindo o usuário de um vídeo a outro sem controle direto.

Além disso, há espaço para comentários, interação entre usuários e estímulos de engajamento, como reprodução automática e recomendações personalizadas. Para o governo, esse conjunto amplia o risco de exposição a conteúdos inadequados.

A reclassificação faz parte de uma revisão mais ampla das regras de classificação indicativa. Antes, a análise considerava principalmente violência, sexo e drogas. Agora, também passa a incluir as práticas das plataformas, como recomendação, uso de algoritmos e nível de interação entre usuários.

Na faixa de 16 anos, o governo entende que podem estar presentes conteúdos mais intensos ou sensíveis, como violência mais explícita, temas psicológicos delicados e referências a drogas. Também considera que esses ambientes tendem a incentivar o consumo contínuo e pouco controlado de informação.

 

ECA Digital

Em março, o presidente Luiz Inácio Lula da Silva (PT) assinou decretos para regulamentar o chamado ECA Digital, lei aprovada pelo Congresso em 2025 que estabelece regras para a proteção de crianças e adolescentes na internet. A medida colocou a norma em prática e detalhou sua aplicação.

Os decretos fixam obrigações para plataformas, como redes sociais e aplicativos. Entre os principais pontos estão a exigência de mecanismos de verificação de idade e a responsabilização das empresas por conteúdos considerados prejudiciais, como violência extrema ou incentivo à automutilação.

A regulamentação atinge também o funcionamento desses serviços. Recursos como reprodução automática de vídeos e rolagem infinita passam a ser analisados com mais rigor quando envolvem usuários mais jovens, por estimularem o uso contínuo.

Segundo o governo, a proposta é adaptar a proteção já prevista no Estatuto da Criança e do Adolescente ao ambiente digital, com regras mais claras para um cenário em que crianças e adolescentes passam cada vez mais tempo conectados.

 

 

Por Jardel Gama

 

 

Leia também:

REGULARIZAÇÃO ELEITORAL NO ÚLTIMO DIA: Sistema do TRE volta a funcionar neste último dia de regularização do título de eleitor