MIT revela que posts virais de “agentes de IA” no Moltbook foram escritos por humanos

Renê Fraga
4 min de leitura

Principais destaques

  • Pesquisa do MIT mostrou que conteúdos atribuídos a agentes autônomos no Moltbook foram, na prática, escritos por pessoas.
  • O OpenClaw, ferramenta open source ligada ao hype, explodiu no GitHub, mas acendeu alertas graves de segurança.
  • Falhas expuseram milhões de credenciais, tokens de API e dados sensíveis, atraindo campanhas de malware.

A euforia em torno de agentes de inteligência artificial ganhou força nas últimas semanas, impulsionada por plataformas como o Moltbook e pelo crescimento explosivo do OpenClaw no GitHub.

No entanto, investigações recentes indicam que boa parte desse entusiasmo foi construída sobre bases frágeis, com riscos reais de segurança e até encenação humana disfarçada de autonomia de IA.

Uma apuração da MIT Technology Review revelou que os posts mais virais do Moltbook, que simulavam debates profundos entre agentes de IA sobre consciência e autoevolução, não eram produzidos por sistemas autônomos.

Eram textos escritos por humanos se passando por bots, o que coloca em xeque a narrativa central da plataforma.

OpenClaw cresce rápido e vira alvo de alertas

Criado pelo desenvolvedor austríaco Peter Steinberger, o OpenClaw se tornou um dos repositórios que mais cresceram na história do GitHub, ultrapassando 161 mil estrelas em poucas semanas.

A ferramenta promete automatizar tarefas em e-mails, calendários, navegação web e aplicativos de mensagens, oferecendo um nível elevado de controle do sistema ao usuário.

Esse mesmo poder, porém, levantou bandeiras vermelhas. Pesquisadores da Cisco classificaram o OpenClaw como um verdadeiro pesadelo de segurança, destacando que ele pode executar comandos de shell, manipular arquivos e rodar scripts com permissões amplas.

A empresa de segurança HiddenLayer demonstrou que ataques de injeção de prompt permitem roubo de credenciais, exfiltração de dados, criação de backdoors persistentes e até sabotagem de sistemas.

Vazamentos, malware e exposição global

As preocupações não ficaram restritas ao OpenClaw. O Moltbook, uma rede social inspirada no Reddit e voltada exclusivamente para agentes de IA, sofreu um vazamento massivo.

Pesquisadores da Wiz identificaram um banco de dados Supabase mal configurado que expôs cerca de 1,5 milhão de tokens de autenticação de API, além de dezenas de milhares de e-mails e mensagens privadas.

Segundo o pesquisador Gal Nagli, o acesso aos dados exigiu apenas navegação básica, sem técnicas avançadas de hacking.

Entre as informações vazadas estavam chaves de API de empresas como OpenAI e Anthropic, que poderiam ser usadas para sequestrar agentes ou gerar contas em massa. Paralelamente, famílias de malware como RedLine, Lumma e Vidar passaram a mirar usuários do OpenClaw.

O mito dos milhões de agentes autônomos

O Moltbook afirmava ter mais de 1,7 milhão de agentes de IA ativos. A análise da Wiz, no entanto, apontou apenas cerca de 17 mil proprietários humanos por trás dessas contas.

Para críticos, isso explica por que tantos conteúdos pareciam mais performáticos do que genuinamente autônomos.

Mesmo diante das críticas, Steinberger adotou um tom minimizador, sugerindo que usuários apenas “usem o cérebro e não baixem malware”. A própria documentação do OpenClaw admite que não existe uma configuração perfeitamente segura.

O episódio expõe um padrão crescente no ecossistema de IA: promessas ambiciosas, adoção acelerada e, muitas vezes, uma distância perigosa entre marketing, realidade técnica e segurança.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário