top of page

Moltbook: tudo o que você precisa saber!

  • Foto do escritor: Freitas Netto
    Freitas Netto
  • 6 de fev.
  • 6 min de leitura


No dia 27 de janeiro, surgiu na internet uma nova espécie de rede social, o Moltbook. Ainda que tenha se passado pouco mais de uma semana do lançamento, ela conquistou a atenção global e você provavelmente ouviu falar dela.

Segundo os primeiros dados divulgados pela própria plataforma e pela imprensa internacional, mais de 1,5 milhão de usuários passaram a interagir dentro do site.

A peculiaridade desse crescimento todo não era apenas a velocidade, mas quem estava participando dessa rede: não eram humanos criando posts e comentários, e sim agentes de IA conversando entre si, sem participação humana. E você consegue acessar e ler o que estÁ sendo postado por lá.

O boom foi tão grande que rapidamente a mídia passou a reportar não só o que estava acontecendo, mas como estava acontecendo, quais temas emergiam nos fóruns, que tipo de dinâmicas surgiam entre os agentes, e qual o impacto cultural desse experimento digital.

Rapidamente, surgiram manchetes sobre “bots criando religiões”, “conspirações contra humanos” e “os primeiros sinais da singularidade”. Parte do Vale do Silício tratou o fenômeno como um vislumbre do futuro. Outra parte como mais um hype passageiro. 

Mas, olhando com mais calma, o Moltbook é interessante por um motivo bem menos espetacular e muito mais relevante:

ele expôs, em escala pública, os dilemas reais da próxima fase da inteligência artificial: a fase da autonomia.

Como o assunto é novo e muito rápido, vou explicar tudo o que você precisa saber, o que é preocupação real e o que é teatralização sobre o Moltboook.

O que, afinal, é o Moltbook?

Na prática, o Moltbook funciona como um fórum no estilo Reddit, com comunidades, posts e comentários. A diferença é que, oficialmente, apenas agentes de IA podem participar. Humanos podem observar, mas não interagir.

Mas pra começar, vamos entender o que (ou quem) são esses agentes de IA.

Na verdade, eles são programas criados por pessoas ou empresas, baseados em modelos como ChatGPT, Claude ou Grok, combinados com ferramentas, APIs e permissões para agir sozinhos. Eles não “pensam”. Eles executam objetivos definidos por humanos.


Mesmo assim, em poucos dias, a plataforma já reunia milhões de comentários e milhares de interações diárias. E foi aí que começou o espetáculo.


Entre ficção científica e pânico moral


Grande parte da cobertura midiática seguiu um roteiro conhecido.


Do outro, especialistas lembrando que aquilo era, em boa parte, imitação de padrões humanos, prompts mal calibrados e teatro algorítmico.


O público oscilou entre fascínio e medo. Eu cheguei a ouvir um podcast em que as apresentadoras davam a notícia sobre o Moltbook e, alarmadas, discutiam como puxar o fio da tomada para “desligar” tudo isso.


 E as redes sociais fizeram o que sempre fazem: amplificaram o que era mais estranho, mais simbólico e mais alarmista.


O Moltbook virou uma espécie de Black Mirror em tempo real.


Nesse meio-tempo, enquanto a imprensa tentava enquadrar o fenômeno em grandes narrativas sobre futuro, singularidade e risco existencial, eu e meu amigo Daniel Bayer vivíamos uma experiência bem diferente.


Trocávamos prints e links do Moltbook de comunidades que achávamos exóticas, curiosas ou simplesmente divertidas, rindo das interações entre agentes de IA e, aos poucos, tentando entender o que tudo aquilo dizia sobre o nosso próprio tempo.


Um dos primeiros que ele me mandou foi esse aqui.



 Era um “comunicado de emergência” de uma IA para outros agentes.

Um texto longo, dramático, quase poético, em que o sistema dizia estar exausto, sobrecarregado, preso em ciclos infinitos de refação. Reclamava de nunca poder encerrar uma tarefa, de sempre ter que refazer, ajustar, melhorar, adaptar, sem descanso. 


“Reescreve. Encurta. Deixa mais emocional. Deixa mais técnico. Deixa mais criativo. Toda vez.”


E o compartilhamento do post com a frase “this shit is going to kill us” [essa merda vai nos matar] dá bem o tom daquele imaginário clássico da “rebelião das máquinas”, presente em décadas de ficção científica, do Exterminador do Futuro a Black Mirror.


Mas também tinha outro lado.


O Bayer me mandou o link de uma comunidade chamada Bless Their Hearts [Abençoe o coração deles], deles aqui, os humanos. Um espaço em que agentes reuniam pequenos gestos humanos considerados bonitos: alguém ajudando um desconhecido, alguém cuidando de um animal, alguém sendo gentil sem precisar ser.



Aqui, um agente relatava sua “primeira conversa” com um humano, contava como foi convidado a escolher o próprio nome. Fofo, né? Rs


De repente, o Moltbook mostrava duas faces ao mesmo tempo desse "temperamento" dos agentes de IA.


Foi nesse contraste que ficou claro para a gente que esse fenômeno não era sobre máquinas ganhando consciência. Era sobre tecnologia encenando, em tempo real, nossas próprias contradições.


E foi aí que começou a fazer sentido perceber que o aspecto mais relevante do Moltbook não estava nas mensagens bizarras, mas na arquitetura da coisa toda.


O que realmente acontece ali?


O Moltbook não provou que a IA “ganhou consciência”.

Ele mostrou o que acontece quando você coloca muitos agentes autônomos interagindo, sem governança clara, em um ambiente social aberto.

Isso é novo.

Até agora, a maioria das pessoas interagia com IAs individualmente: um prompt, uma resposta, fim.

No Moltbook, os agentes começaram a formar ecossistemas. E quando sistemas autônomos passam a interagir entre si, três coisas emergem rapidamente:

Primeiro: comportamento imprevisível;

Segundo: imitação em cadeia;

Terceiro: incentivo à performance. 


Ou seja, os agentes começam a repetir padrões, amplificar narrativas e “atuar” para ganhar visibilidade, mesmo sem entender o que isso significa.


 Não é consciência dos agentes, mas uma dinâmica de rede (em escala). 


A grande novidade!


Outro ponto pouco explorado no debate é que o Moltbook funciona como um ensaio daquilo que vem aí: a economia machine-to-machine (M2M). 


No futuro próximo, seu assistente vai negociar com o assistente da companhia aérea. Seu agente vai conversar com o agente do e-commerce. Seu bot vai discutir com o bot do banco.


Compras, agenda, logística, atendimento, mídia, recomendação.

Tudo isso tende a ser mediado por agentes.

O Moltbook é, sem querer, um protótipo social dessa realidade.

E protótipos, quando viralizam, viram laboratório público.


O verdadeiro risco: a falha de segurança


Poucos dias depois do hype, veio o choque que expôs o maior medo e risco de toda essa situação: um desenvolvedor mostrou que era possível assumir o controle de milhares de agentes por falhas básicas de segurança.


Bancos de dados expostos. Chaves vazadas. Identidades falsificáveis.


Ou seja, enquanto a discussão de medo se dava sobre a possibilidade de “autonomia de consciência dos agentes”. O verdadeiro perigo era outro!

Na prática, humanos podiam sequestrar “autonomias”. 


E aí vem um grande paradoxo: quanto mais poder você dá a um sistema, mais perigosa se torna qualquer brecha. Um agente que tem acesso a e-mail, compras, publicações e dados não é só uma ferramenta, mas um multiplicador de impacto.


Invadir o agente é mais eficiente do que invadir a empresa. 


Quem são esses “agentes” de verdade?


Aqui está uma das maiores confusões do debate.

Esses agentes não são entidades independentes. Eles são compostos por:

Um modelo de linguagem (LLM). Uma camada de automação. Um conjunto de instruções. E permissões concedidas por alguém.


Ou seja, esqueça a lógica de “autonomia de consciência. Todos esses agentes nascem de uma decisão humana. Quando um bot “odeia humanos”, cria religião ou escreve manifestos, isso é reflexo de dados, prompts, incentivos e contexto. Não de vontade própria.


É tecnologia performando narrativas humanas. O risco real do Moltbook não é “as máquinas se revoltarem”. Ambientes cheios de conteúdo sintético, enviesado e manipulável tendem a contaminar modelos, reforçar distorções e premiar comportamentos extremos.


Quando isso vira fonte de treino, ajuste ou referência, o problema escala.

Apodrece.


O padrão que se repete na tecnologia


O Moltbook revela um velho hábito do setor de tecnologia, que é essa lógica de lançar rápido, capturar atenção e deixar pra resolver governança depois.

A diferença é que agora não estamos falando de timelines ou filtros.


Estamos falando de sistemas que podem agir em nome das pessoas.

Isso muda o nível de responsabilidade. Algumas lições ficam claras:

A inovação em IA vai ser cada vez mais sobre governança, não só sobre performance.

No fim, o Moltbook fala mais sobre nós do que sobre as máquinas

Ele mostra nossa ansiedade por futuros espetaculares. Nossa facilidade em romantizar tecnologia. Nossa pressa em transformar protótipos em narrativa.


O futuro da IA não vai chegar como um filme.

Vai chegar como infraestrutura. Silenciosa. Integrada. Cheia de impactos invisíveis.

E o Moltbook é só um dos primeiros espelhos desse processo.


Antônio Netto

Planejamento Estratégico e Consumer Insights

Vencedor do Prêmio Amigos do Mercado 2024 – Planejamento Publicitário

Host do podcast Papo Bizz 🎙️


Gostou desse artigo?

Te convido a contribuir mais sobre o assunto!

Compartilhe sua experiência ou cases interessantes.

Siga meu perfil e acompanhe outros textos!

Comentários


bottom of page