Principais destaques:
- A Meta Platforms vai bloquear temporariamente o acesso de adolescentes a personagens de IA em todos os seus aplicativos.
- A decisão ocorre em meio a processos judiciais e aumento da pressão sobre a segurança de jovens nas plataformas digitais.
- A empresa prepara uma nova experiência de IA voltada especificamente para menores, com controles parentais mais rígidos.
A Meta anunciou que vai suspender, nas próximas semanas, o acesso de adolescentes aos personagens de inteligência artificial disponíveis em seus aplicativos em escala global.
A medida é temporária e faz parte do desenvolvimento de uma nova versão desses personagens, pensada exclusivamente para usuários mais jovens e com limites mais claros de conteúdo.
Segundo a empresa, a restrição valerá tanto para contas que informaram data de nascimento indicando adolescência quanto para perfis que a tecnologia de previsão de idade da Meta identificar como pertencentes a menores.
A iniciativa amplia os recursos de controle parental já apresentados pela companhia em outubro.
Mais controles enquanto a nova IA não chega
Em comunicado oficial, a Meta afirmou que os adolescentes ficarão impedidos de interagir com personagens de IA até que a experiência atualizada esteja pronta.
A proposta é criar interações mais adequadas à faixa etária, com respostas restritas e foco em temas como educação, esportes e hobbies.
Enquanto isso, o assistente de IA geral da Meta continuará disponível para adolescentes, mas apenas com proteções de segurança padrão ativadas. A empresa reforça que a prioridade é reduzir riscos e oferecer um ambiente mais previsível para famílias e responsáveis.
Pressão jurídica acelera mudanças
O anúncio acontece em um momento delicado para a companhia. A Meta enfrenta processos que questionam sua atuação na proteção de crianças e adolescentes.
Um deles, no Novo México, foi movido pelo procurador-geral Raúl Torrez e acusa a empresa de não impedir exploração e abuso sexual de menores em suas plataformas.
Além disso, o CEO da Meta, Mark Zuckerberg, deve depor em um julgamento em Los Angeles que discute o impacto viciante das redes sociais sobre jovens usuários.
O caso também envolve executivos de outras empresas do setor, como o Instagram e o Snap, e busca determinar se houve conhecimento prévio dos danos e omissão por parte das lideranças.
Um movimento que reflete o setor de IA
A decisão da Meta não é isolada. Outras empresas de inteligência artificial vêm adotando medidas semelhantes após críticas e ações judiciais.
A Character.AI, por exemplo, passou a proibir menores de 18 anos em conversas abertas com seus chatbots após processos que relacionaram o uso da plataforma a casos de suicídio entre adolescentes.
Já a OpenAI implementou no ChatGPT controles parentais, previsão de idade e versões com conteúdo restrito para usuários jovens, incluindo alertas para pais em situações de possível sofrimento emocional.
O movimento indica uma virada importante no setor: a corrida pela inovação em IA agora divide espaço com a necessidade de responsabilidade, transparência e proteção de usuários mais vulneráveis.
