Meta suspende personagens de IA para adolescentes e promete versão mais segura

Renê Fraga
4 min de leitura

Principais destaques:

  • A Meta Platforms vai bloquear temporariamente o acesso de adolescentes a personagens de IA em todos os seus aplicativos.
  • A decisão ocorre em meio a processos judiciais e aumento da pressão sobre a segurança de jovens nas plataformas digitais.
  • A empresa prepara uma nova experiência de IA voltada especificamente para menores, com controles parentais mais rígidos.

A Meta anunciou que vai suspender, nas próximas semanas, o acesso de adolescentes aos personagens de inteligência artificial disponíveis em seus aplicativos em escala global.

A medida é temporária e faz parte do desenvolvimento de uma nova versão desses personagens, pensada exclusivamente para usuários mais jovens e com limites mais claros de conteúdo.

Segundo a empresa, a restrição valerá tanto para contas que informaram data de nascimento indicando adolescência quanto para perfis que a tecnologia de previsão de idade da Meta identificar como pertencentes a menores.

A iniciativa amplia os recursos de controle parental já apresentados pela companhia em outubro.

Mais controles enquanto a nova IA não chega

Em comunicado oficial, a Meta afirmou que os adolescentes ficarão impedidos de interagir com personagens de IA até que a experiência atualizada esteja pronta.

A proposta é criar interações mais adequadas à faixa etária, com respostas restritas e foco em temas como educação, esportes e hobbies.

Enquanto isso, o assistente de IA geral da Meta continuará disponível para adolescentes, mas apenas com proteções de segurança padrão ativadas. A empresa reforça que a prioridade é reduzir riscos e oferecer um ambiente mais previsível para famílias e responsáveis.

Pressão jurídica acelera mudanças

O anúncio acontece em um momento delicado para a companhia. A Meta enfrenta processos que questionam sua atuação na proteção de crianças e adolescentes.

Um deles, no Novo México, foi movido pelo procurador-geral Raúl Torrez e acusa a empresa de não impedir exploração e abuso sexual de menores em suas plataformas.

Além disso, o CEO da Meta, Mark Zuckerberg, deve depor em um julgamento em Los Angeles que discute o impacto viciante das redes sociais sobre jovens usuários.

O caso também envolve executivos de outras empresas do setor, como o Instagram e o Snap, e busca determinar se houve conhecimento prévio dos danos e omissão por parte das lideranças.

Um movimento que reflete o setor de IA

A decisão da Meta não é isolada. Outras empresas de inteligência artificial vêm adotando medidas semelhantes após críticas e ações judiciais.

A Character.AI, por exemplo, passou a proibir menores de 18 anos em conversas abertas com seus chatbots após processos que relacionaram o uso da plataforma a casos de suicídio entre adolescentes.

Já a OpenAI implementou no ChatGPT controles parentais, previsão de idade e versões com conteúdo restrito para usuários jovens, incluindo alertas para pais em situações de possível sofrimento emocional.

O movimento indica uma virada importante no setor: a corrida pela inovação em IA agora divide espaço com a necessidade de responsabilidade, transparência e proteção de usuários mais vulneráveis.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário