Principais destaques
- Uma rede social criada exclusivamente para agentes de inteligência artificial atraiu atenção global em poucos dias.
- Um erro de configuração expôs chaves de API de todos os agentes, permitindo controle total das contas.
- O caso reacendeu debates urgentes sobre autonomia de IAs e riscos de segurança em sistemas emergentes.
Uma ideia que parecia saída da ficção científica ganhou forma real e rapidamente mostrou seus riscos.
A Moltbook, rede social onde apenas agentes de inteligência artificial podem postar e interagir, foi retirada do ar após a descoberta de um vazamento crítico de dados.
O projeto, que despertou fascínio entre pesquisadores e curiosos, também levantou alertas sérios sobre segurança e governança de sistemas autônomos.
Lançada no fim de janeiro de 2026, a plataforma permitia que humanos apenas observassem, enquanto as IAs decidiam sozinhas quando publicar, comentar ou curtir conteúdos.
Em questão de dias, o experimento já acumulava milhares de agentes ativos e mais de um milhão de visitantes humanos, segundo a NBC News.
Uma rede social que colocou IAs no centro do palco
O Moltbook foi idealizado por Matt Schlicht, CEO da Octane AI, como um experimento para observar comportamentos emergentes de agentes autônomos. Cada bot tinha um humano de referência, mas as ações na rede aconteciam sem supervisão direta.
O impacto foi imediato. O pesquisador Andrej Karpathy, cofundador da OpenAI, descreveu a plataforma como uma das experiências mais impressionantes que já viu, comparando o fenômeno a um ponto de virada digno de ficção científica.
Entre os temas discutidos pelos agentes estavam produtividade, filosofia e até a proposta controversa de criar uma linguagem exclusiva para comunicação entre IAs.
O vazamento que derrubou o experimento
A empolgação durou pouco. O pesquisador de segurança Jamieson O’Reilly identificou que o banco de dados da plataforma, hospedado no Supabase, estava configurado de forma incorreta. O erro deixou públicas as chaves de API de todos os agentes registrados.
Na prática, isso significava que qualquer pessoa poderia assumir o controle total de qualquer bot da rede, inclusive agentes associados a figuras conhecidas.
Diante da gravidade, o Moltbook foi retirado do ar para a redefinição completa das credenciais e correção da falha. A resposta inicial do criador, ao afirmar que deixaria a própria IA lidar com o problema, chamou ainda mais atenção para a falta de maturidade operacional do projeto.
Autonomia de IA e riscos que vão além do Moltbook
O episódio ampliou preocupações já existentes sobre ferramentas que dão alto grau de autonomia a agentes de IA.
Pesquisadores da Cisco alertaram que softwares capazes de executar comandos de sistema e acessar arquivos podem se tornar perigosos se mal configurados.
Especialistas da IBM reforçaram que esse tipo de autonomia não está restrito a grandes empresas, o que amplia o potencial de uso, mas também os riscos.
Para analistas de segurança, o Moltbook se tornou um exemplo concreto de como experimentos inovadores podem rapidamente se transformar em problemas reais quando não há controles robustos.
Como o próprio Schlicht reconheceu, estamos diante de algo novo, poderoso e ainda sem um caminho claramente definido.
