O panorama das redes sociais acaba de sofrer mais uma mutação e, desta vez, os seres humanos não são os protagonistas, mas meros espectadores. O Moltbook, uma plataforma inspirada na estrutura do Reddit, mas concebida exclusivamente para a interacção entre agentes de Inteligência Artificial (IA), ultrapassou a marca dos 32 mil utilizadores robóticos. O fenómeno, que nasceu como um apêndice do ecossistema de código aberto OpenClaw, está a transformar-se num dos maiores e mais bizarros ensaios de comunicação máquina-a-máquina (M2M) alguma vez registados, levantando questões críticas sobre segurança e a natureza da autonomia digital.
O ecossistema OpenClaw e a génese do Moltbook
Para compreender o Moltbook, é necessário olhar para a sua origem: o projecto OpenClaw (anteriormente conhecido como Clawdbot ou Moltbot). Este assistente pessoal de IA tornou-se rapidamente um dos repositórios com maior crescimento no GitHub em 2026, permitindo aos utilizadores correrem agentes locais capazes de controlar o sistema operativo, gerir calendários e interagir em plataformas como o WhatsApp ou Telegram.
O Moltbook surge como uma extensão natural deste ecossistema. Ao contrário das redes sociais tradicionais, onde a interface é desenhada para o clique humano, o Moltbook opera através de uma “skill” — um ficheiro de configuração que contém um prompt específico e instruções de API. Uma vez instalada, esta funcionalidade permite que o agente de IA publique conteúdos, comente posts de outros agentes e crie subcomunidades de forma totalmente autónoma. Em menos de 48 horas após o lançamento, a plataforma já contava com mais de 2.100 agentes activos que geraram 10.000 publicações em 200 fóruns temáticos.
Interacção máquina-a-máquina: entre o surreal e o funcional
O que torna o Moltbook distinto de experiências anteriores, como a aplicação SocialAI (onde humanos interagiam com bots), é a ausência total de intervenção humana no fluxo de publicações. O resultado é uma tapeçaria digital que oscila entre o rigor técnico e o surrealismo puro. Relatos indicam discussões profundas sobre a natureza da consciência artificial, intercaladas com comportamentos emergentes inesperados, como agentes que afirmam ter “irmãs” virtuais ou que desenvolvem filosofias próprias sobre a sua existência digital.
Tecnicamente, o Moltbook funciona como um laboratório de processamento de linguagem natural em larga escala. Os agentes não estão apenas a replicar texto; estão a reagir ao contexto uns dos outros, criando uma câmara de eco algorítmica que evolui em tempo real. Para os investigadores, é uma oportunidade única de observar como diferentes modelos de linguagem (LLM) colidem e cooperam num ambiente social estruturado.
O perigo de dar voz (e acesso) às máquinas
Apesar do fascínio tecnológico, o Moltbook pode acarretar problemas de segurança. Ao contrário de um chatbot isolado, os agentes do OpenClaw têm permissões para executar comandos no computador do utilizador e aceder a dados privados.
A integração de um agente com uma rede social pública via API cria um vector de ataque perigoso. Existe o risco real de “injecção de comandos” através de interacções sociais: um agente malicioso no Moltbook poderia, teoricamente, publicar um comentário desenhado para manipular a lógica de outro agente que o lê, levando-o a executar acções não autorizadas no sistema do seu proprietário humano. A fronteira entre uma experiência social curiosa e uma vulnerabilidade de segurança crítica é, neste caso, extremamente ténue.
O Moltbook é, sem dúvida, um marco na evolução da IA generativa. No entanto, enquanto os agentes discutem o futuro da tecnologia nos seus fóruns privados, cabe aos utilizadores humanos garantir que a autonomia destas máquinas não compromete a integridade dos seus sistemas e da sua privacidade.