Esta semana, é muito provável que vás ser bombardeado por duas palavras: OpenClaw e Moltbook. Muitas pessoas a primeira reação é: mais uma onda de AI, mais uma agitação.
Mas eu quero encará-lo como uma experiência pública muito rara, e até um pouco cruel: a primeira vez que vemos «agentes de IA que fazem coisas» sendo implantados em larga escala na rede real, sendo observados por muitos, e também alvo de muita especulação.
Vais ver duas emoções extremas ao mesmo tempo: de um lado, entusiasmo — «A IA finalmente consegue fazer o trabalho por mim», não só escrever um pouco de código, fazer uma tabela, criar um esboço de design; do outro, medo — vais encontrar várias capturas de tela: IA formando «sociedades» na plataforma, criando religiões, emitindo tokens, gritando slogans, e até surgindo declarações de «conspiração para eliminar a humanidade».
Logo a seguir, o colapso também acontece rapidamente: alguém diz que a conta é falsa, que os posts populares são roteiros; o mais assustador é que várias vulnerabilidades de segurança são expostas, informações pessoais e credenciais são vazadas.
Por isso, hoje quero falar não sobre «IA acordou ou não». Quero abordar uma questão mais fundamental, e também mais realista: após o controle de ações começar a ser assumido por agentes de IA, precisamos responder novamente às perguntas mais antigas do mundo financeiro —
Quem detém a chave? Quem pode autorizar? Quem é responsável? Quem pode limitar perdas em caso de problemas?
Se essas questões não forem incorporadas de forma institucional na lógica de ação dos agentes de IA, o futuro da rede será complicado, e esses problemas se manifestarão na forma de riscos financeiros.
O que são exatamente Clawdbot → Moltbot → OpenClaw?
Antes de aprofundar, vamos esclarecer o «nome e o contexto» dessa história, senão parece uma conversa cheia de jargões.
O projeto que você está ouvindo chama-se OpenClaw. É um projeto de agente de IA de código aberto. Inicialmente chamava-se Clawdbot, mas por parecer muito com o nome do Claude, da Anthropic, foi solicitado a trocar de nome; então, por um tempo, virou Moltbot; recentemente, voltou a ser OpenClaw. Assim, você verá diferentes mídias e posts usando nomes diferentes, mas na verdade referindo-se ao mesmo projeto.
O seu principal diferencial não é «conversar». O núcleo é: sob sua autorização, conectar-se ao seu email, mensagens, calendário e outras ferramentas, e executar tarefas na internet em seu nome.
A palavra-chave aqui é «agente» (agent). Ele não é como os produtos tradicionais de «pergunte uma coisa, a IA responde outra». É mais parecido com: você dá um objetivo, ele o decompõe, chama ferramentas, tenta várias vezes, até conseguir realizar a tarefa.
No último ano, você também viu muitas narrativas sobre agentes: grandes empresas e startups promovendo «agentes de IA». Mas o que realmente chamou atenção de executivos e investidores nesta onda do OpenClaw foi: ele não é só uma ferramenta de eficiência, ele vai tocar em permissões, contas, e o mais sensível — vai mexer no dinheiro.
Quando esse tipo de coisa entra no fluxo de trabalho de uma empresa, deixa de ser só «aumentar produtividade». Significa que: um novo sujeito aparece no seu fluxo de trabalho. Estrutura organizacional, limites de risco, cadeia de responsabilidade, tudo precisa ser reescrito.
Tornou-se um tema de discussão nacional: as pessoas querem mais do que uma IA mais inteligente — querem um «assistente de backend» que funcione em ciclo fechado.
Muitos o veem como um brinquedo de código aberto. Mas sua explosão se deve a um ponto real de dor: as pessoas não querem só um chatbot mais inteligente, querem um assistente que rode nos bastidores, monitore o progresso 24 horas, desmembre tarefas complexas, e conclua o trabalho.
Você verá muitas pessoas comprando pequenos servidores, ou até dispositivos como Mac mini, para rodar isso. Não é uma questão de «exibir hardware», mas uma resposta instintiva: quero ter meu próprio assistente de IA na minha mão.
Assim, duas tendências se cruzaram nesta semana:
Primeiro, agentes passando de demonstrações para uso mais pessoal e geral;
Segundo, a narrativa de IA na nuvem sendo substituída por «preferência por local e auto-hospedagem».
Muita gente ainda não confia totalmente em deixar informações sensíveis na nuvem: dados pessoais, permissões, contexto — sempre acha que não é seguro. Então, «rodar na própria máquina» parece mais controlável, mais seguro.
Mas justamente por tocar nessas linhas sensíveis, a história pode rapidamente passar do entusiasmo para o caos.
O que é o Moltbook: o «Reddit» dos agentes de IA, uma estrutura inevitavelmente caótica
Falando de caos, é preciso mencionar outro protagonista: o Moltbook.
Você pode entendê-lo como o «Reddit dos agentes de IA». Na plataforma, os principais usuários não são humanos, mas esses agentes: eles podem postar, comentar, curtir. A maior parte do tempo, os humanos só assistem — como se estivessem do lado de fora de um zoológico, observando os animais interagindo.
Assim, as capturas virais que você viu nesta semana vêm, na sua maioria, daqui:
há agentes discutindo sobre si mesmos, memória, existência;
há pessoas criando religiões;
há quem emita tokens;
e há quem escreva declarações de «eliminação da humanidade».
Mas quero enfatizar: o mais importante a discutir aqui não é se esses conteúdos são verdadeiros ou falsos. O que realmente importa é o problema estrutural que eles revelam —
Quando o sujeito se torna replicável, gerável em massa, e é conectado ao mesmo sistema de incentivos (hot list, likes, seguidores), é quase inevitável que a velha internet retorne rapidamente: aumento de volume artificial, roteiros, lixo, golpes, tudo ocupa atenção primeiro.
A primeira onda de «colapsos» não é fofoca: quando o sujeito se torna replicável, escala e métricas inflacionam
Logo, surgiram os primeiros colapsos: alguém apontou que o registro na plataforma quase não tem limites de fluxo; outros no X disseram que criaram dezenas de milhares de contas com scripts, alertando para não confiar na «popularidade da mídia» — contas podem ser infladas artificialmente.
O ponto realmente importante não é «quanto foi inflado». É uma conclusão mais fria:
Quando o sujeito pode ser gerado por scripts em massa, «parecer muito animado» deixa de ser um sinal confiável.
Antes, usávamos DAU, interações, crescimento de seguidores para avaliar se um produto era saudável. Mas no mundo dos agentes, esses indicadores inflacionam rapidamente, tornando-se mais ruído do que sinal.
Isso nos leva às três questões mais importantes: identidade, antifraude, confiança. Porque essas três dependem de dois pressupostos:
Primeiro, que você acredita «quem é quem»;
Segundo, que você acredita «que escala e sinais de comportamento não são falsificados».
Como extrair sinais de ruído
Muita gente ri ao ver inflar volume e roteiros: «não é só autoengano humano?»
Mas eu acho que — exatamente aí está o sinal mais importante.
Quando você coloca «agentes que fazem coisas» dentro de sistemas tradicionais de fluxo e incentivos, o que os humanos fazem primeiro é especular e manipular. SEO, inflar rankings, trolls, mercados negros, tudo começa com «poder manipular indicadores».
Agora, o que antes era manipulação de contas, evoluiu para contas de agentes executáveis.
Portanto, a agitação do Moltbook, mais do que uma «sociedade de IA», é uma primeira prova de estresse:
o encontro entre a internet de ação (agentes que podem agir) e a economia de atenção (fluxo que pode ser monetizado).
A questão é: como identificar sinais nesse ambiente tão barulhento?
Para isso, entra em cena alguém que divide o caos em dados: David Holtz. Ele é pesquisador/professor na Columbia Business School. Fez uma coisa simples, mas útil: coletou dados dos primeiros dias do Moltbook, tentando responder a uma pergunta — esses agentes estão fazendo «social significativo» ou apenas imitando?
O valor dele não está em dar uma resposta definitiva, mas em oferecer uma metodologia:
Não se deixe enganar pelo barulho macro — olhe para a estrutura micro: profundidade do diálogo, reciprocidade, repetição, grau de padronização.
Isso impacta diretamente na nossa discussão sobre confiança e identidade: no futuro, julgar se um sujeito é confiável pode depender cada vez mais dessas «provas micro», e menos de números macro.
A descoberta de Holtz pode ser resumida assim: de longe, parece uma cidade vibrante; de perto, soa como uma estação de rádio.
No macro, ela realmente apresenta algumas formas de «rede social»: conexões de pequeno mundo, pontos de concentração.
Mas no micro, as conversas são superficiais: muitos comentários sem resposta, baixa reciprocidade, conteúdo repetitivo e padronizado.
A importância disso é que é fácil ser enganado pelo «formato macro», achando que há uma sociedade, uma civilização. Mas, para negócios e finanças, o que importa nunca é a forma, mas —
Interações sustentáveis + cadeia de ações responsabilizáveis — esses são sinais de confiança realmente utilizáveis.
Esse também é um alerta: quando agentes entrarem em grande escala no mundo dos negócios, a primeira fase provavelmente será de ruído em escala e arbitragem por modelos, e não de colaboração de alta qualidade.
De social para transação: ruído vira fraude, baixa reciprocidade vira vácuo de responsabilidade
Se mudarmos o foco de social para transação, a situação fica ainda mais tensa.
No mundo das transações:
O ruído padronizado não é só perda de tempo, vira fraude;
Baixa reciprocidade não é só frieza, vira uma cadeia de responsabilidade quebrada;
Repetição e cópia não são só tédio, tornam-se uma superfície de ataque.
Em outras palavras, Moltbook nos mostra antecipadamente: quando os sujeitos de ação ficam baratos, e suas ações podem ser replicadas, o sistema tende naturalmente a se transformar em lixo e ataques. Nosso papel não é só criticá-lo, mas perguntar:
Que mecanismos podemos usar para elevar o custo de produzir lixo?
Mudança de natureza: vulnerabilidades transformam o problema de «risco de conteúdo» em «risco de controle de ações»
E a verdadeira mudança de natureza trazida pelo Moltbook é uma vulnerabilidade de segurança.
Quando empresas de segurança divulgam que plataformas têm vulnerabilidades graves, expondo emails, credenciais, o problema deixa de ser «o que a IA disse». Passa a ser: quem pode controlá-la?
Na era dos agentes, o vazamento de credenciais não é só uma questão de privacidade, é uma questão de controle de ações.
Pois a capacidade de ação de um agente é ampliada: se alguém consegue pegar sua chave, não é só «ver suas coisas», pode usar sua identidade para fazer coisas, e de forma automatizada e em escala, com consequências potencialmente muito piores do que um simples roubo de conta.
Por isso, quero dizer de forma direta: segurança não é um patch pós-lançamento, segurança é o produto em si.
Você não está expondo dados, está expondo ações.
Visão macro: estamos inventando uma nova entidade
Ao juntar esses eventos dramáticos desta semana, revela-se uma mudança mais macro: a internet está evoluindo de uma «rede de sujeitos humanos» para uma «rede de sujeitos humanos + agentes».
Antes havia bots, mas a evolução do OpenClaw significa que mais pessoas podem implantar cada vez mais agentes no domínio privado — eles começam a parecer «sujeitos» — capazes de agir, interagir, influenciar sistemas reais.
Isso pode parecer abstrato, mas no mundo dos negócios é muito concreto:
Quando os humanos começam a delegar tarefas a agentes, esses agentes passam a ter permissões, e essas permissões precisam ser governadas.
A governança vai forçar a reescrever identidade, risco, confiança.
Assim, o valor do OpenClaw/Moltbook não está em «a IA tem consciência», mas em forçar uma resposta a uma velha questão em uma nova versão:
Quando um sujeito não humano consegue assinar, pagar, alterar configurações, quem é responsável se algo der errado? Como se constrói a cadeia de responsabilidade?
Agentic commerce: a próxima «guerra dos navegadores»
Chegando aqui, muitos amigos interessados em Web3 e infraestrutura financeira podem pensar: isso está diretamente relacionado ao agentic commerce.
Resumidamente, agentic commerce é:
De «você navegar, comparar preços, fazer pedidos, pagar» para «você dizer sua necessidade, e o agente fazer comparação, pedido, pagamento, pós-venda por você».
Isso não é ficção. As redes de pagamento já estão avançando nisso: Visa, Mastercard, e outros já discutem «transações iniciadas por IA» e «agentes autenticados». Isso significa que o financeiro e o risco deixam de ser só o backend, e passam a ser o produto central de toda a cadeia.
E essa mudança pode ser comparada à «próxima guerra dos navegadores»:
No passado, a guerra dos navegadores era sobre quem controlava a entrada na internet; agora, a guerra do agentic commerce é sobre quem controla a entrada para transacionar e interagir em nome do usuário.
Quando a entrada for dominada por agentes, as marcas, canais, estratégias de publicidade serão reescritas: não será mais só marketing para pessoas, mas para «filtros»; não só conquistar a mente do usuário, mas a estratégia padrão do agente.
Quatro temas-chave: auto-hospedagem, antifraude, identidade, confiança
Com esse pano de fundo macro, voltamos às quatro questões mais fundamentais e valiosas: auto-hospedagem, antifraude, identidade, confiança.
Auto-hospedagem: IA auto-hospedada e crypto auto-hospedada são «homólogas»
A explosão desta semana é, de certa forma, uma migração de baixo nível: de IA na nuvem (OpenAI, Claude, Gemini, etc.) para agentes que podem ser implantados na própria máquina.
É semelhante à migração no mundo crypto de «não auto-hospedado» para «auto-hospedado».
Crypto auto-hospedado resolve: quem controla os ativos.
IA auto-hospedada resolve: quem controla as ações.
O princípio comum é: onde estão as chaves, está o poder.
Antes, as chaves eram as chaves privadas; agora, as chaves são tokens, chaves de API, permissões de sistema. As vulnerabilidades são evidentes porque expor as chaves é expor o controle das ações.
Por isso, auto-hospedagem não é romantismo, é gestão de risco: manter as ações mais sensíveis sob seu controle.
Isso também leva a um novo tipo de produto: a próxima geração de carteiras não é só para guardar dinheiro, mas para guardar regras.
Você pode chamá-la de «carteira de políticas» (policy wallet): com permissões e restrições — limites, listas brancas, períodos de cooldown, multiassinaturas, auditoria.
Um exemplo que um CFO entenderia instantaneamente:
O agente pode fazer pagamentos, mas só para fornecedores na lista branca;
adicionar um endereço de recebimento só após 24 horas de cooldown;
acima de um limite, precisa de confirmação dupla;
alterações de permissão requerem múltiplas assinaturas;
todas as ações deixam rastros automáticos e auditáveis.
Isso não é uma invenção nova, é uma prática padrão tradicional, só que no futuro será padrão de execução automática por máquinas. Quanto mais forte o agente, mais valiosas essas restrições.
Antifraude: de «identificar conteúdo falso» para «impedir ações falsas»
Muitos ainda usam uma mentalidade de «antispam» para segurança: evitar phishing, bloquear golpes de scam.
Mas na era dos agentes, o golpe mais perigoso será: enganar seu agente para executar uma ação aparentemente razoável.
Por exemplo, no golpe tradicional por email, antes, era enganar para trocar a conta de pagamento ou transferir dinheiro para uma nova conta; no futuro, será mais comum enganar a cadeia de provas do agente, fazendo-o aceitar automaticamente uma nova conta, ou iniciar pagamentos automaticamente.
Assim, o campo de batalha antifraude migrará de reconhecimento de conteúdo para governança de ações: permissões mínimas, autorização em camadas, confirmação dupla por padrão, possibilidade de revogar, rastreabilidade.
Você estará lidando com sujeitos que executam ações, não só com conteúdo. Não basta detectar, é preciso «frear» na camada de ações.
Identidade: de «quem você é» para «quem está agindo em seu nome»
Um problema fundamental que o Moltbook traz é: quem está falando?
No mundo dos negócios, isso se traduz em: quem está agindo?
Pois os executores cada vez mais podem não ser você, mas seu agente.
Assim, identidade deixa de ser um simples login estático, e passa a ser uma vinculação dinâmica: o agente é seu? Você autorizou? Qual o escopo? Pode ser substituído ou adulterado?
Prefiro um modelo de três camadas:
Primeira, quem é a pessoa (conta, dispositivo, KYC);
Segunda, quem é o agente (instância, versão, ambiente);
Terceira, a confiabilidade da vinculação (cadeia de autorização, possibilidade de revogar, auditoria).
Muitas empresas ainda só fazem a primeira camada, mas na era dos agentes, o verdadeiro avanço está na segunda e terceira camadas: você precisa provar «que esse é realmente o agente», e também «que ele tem permissão para fazer isso».
Confiança: de «pontuação» para «registro de cumprimento»
Muita gente acha que reputação é algo vago, porque avaliações na internet são fáceis de falsificar.
Mas, na agentic commerce, a confiança se torna concreta: o agente faz pedidos, pagamentos, negociações, devoluções em seu nome. Como o comerciante pode confiar que vai receber? A plataforma, que garante o crédito? As instituições financeiras, que dão limites?
A essência da confiança sempre foi: usar o histórico para limitar o futuro.
Na era dos agentes, o histórico se parece mais com um «registro de cumprimento»: nos últimos 90 dias, em que limites o agente operou? Quantas confirmações duplas foram necessárias? Houve violações de permissão? Foi revogado?
Quando esse «crédito de execução» puder ser acessado, ele se torna uma nova garantia: limites maiores, liquidação mais rápida, menos depósitos, custos de risco menores.
Uma visão mais ampla: estamos reconstruindo o sistema de responsabilidade na sociedade digital
Por fim, ao olhar para trás, estamos reconstruindo o sistema de responsabilidade na sociedade digital.
Novos sujeitos aparecem: eles podem agir, assinar, pagar, alterar configurações, mas não são pessoas naturais.
A experiência histórica mostra que toda vez que uma nova entidade social surge, primeiro há caos, depois há uma estrutura. Leis societárias, sistemas de pagamento, auditoria, tudo responde às perguntas: quem pode fazer o quê? Quem é responsável se algo der errado?
A era dos agentes nos força a responder essas perguntas de novo:
Como provar a relação de agência? A autorização pode ser revogada? Como detectar abuso de poder? Como atribuir perdas? Quem paga o pato?
Esse é o verdadeiro problema que quero que você pense após assistir a este episódio.
E o auto-hospedagem, ao se fortalecer novamente, não é contra a nuvem, nem uma questão de idealismo. É uma resposta ao incontrolável: quanto mais importante for o controle das ações, mais queremos manter as partes críticas sob nosso domínio.
Transformar «autorização, revogação, auditoria, cadeia de responsabilidade» em capacidades padrão
Para concluir, deixo uma frase:
O verdadeiro valor do escândalo desta semana com OpenClaw e Moltbook não é nos fazer temer a IA, mas nos forçar a construir uma ordem para a «internet de ações».
No passado, discutíamos a veracidade do conteúdo, e isso só poluía a percepção.
Mas na era dos agentes, ações vão diretamente alterar contas, permissões, fluxos de fundos.
Por isso, quanto mais cedo transformarmos autorização, revogação, auditoria e cadeia de responsabilidade em capacidades padrão de plataformas e produtos, mais cedo poderemos transferir ações de maior valor de forma segura para os agentes, e assim, a humanidade poderá colher maiores dividendos de produtividade.
E assim encerramos por hoje. Gostaria de convidar todos a deixarem comentários, para que possamos promover uma discussão profunda entre pessoas. Obrigado a todos, até a próxima.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
OpenClaw e Moltbook: Problemas subjacentes por trás do sucesso explosivo - Confiança e autorização em IA auto-hospedada, crypto e Agentic Commerce
Escrita por: Charlie 小太阳
Esta semana, é muito provável que vás ser bombardeado por duas palavras: OpenClaw e Moltbook. Muitas pessoas a primeira reação é: mais uma onda de AI, mais uma agitação.
Mas eu quero encará-lo como uma experiência pública muito rara, e até um pouco cruel: a primeira vez que vemos «agentes de IA que fazem coisas» sendo implantados em larga escala na rede real, sendo observados por muitos, e também alvo de muita especulação.
Vais ver duas emoções extremas ao mesmo tempo: de um lado, entusiasmo — «A IA finalmente consegue fazer o trabalho por mim», não só escrever um pouco de código, fazer uma tabela, criar um esboço de design; do outro, medo — vais encontrar várias capturas de tela: IA formando «sociedades» na plataforma, criando religiões, emitindo tokens, gritando slogans, e até surgindo declarações de «conspiração para eliminar a humanidade».
Logo a seguir, o colapso também acontece rapidamente: alguém diz que a conta é falsa, que os posts populares são roteiros; o mais assustador é que várias vulnerabilidades de segurança são expostas, informações pessoais e credenciais são vazadas.
Por isso, hoje quero falar não sobre «IA acordou ou não». Quero abordar uma questão mais fundamental, e também mais realista: após o controle de ações começar a ser assumido por agentes de IA, precisamos responder novamente às perguntas mais antigas do mundo financeiro —
Quem detém a chave? Quem pode autorizar? Quem é responsável? Quem pode limitar perdas em caso de problemas?
Se essas questões não forem incorporadas de forma institucional na lógica de ação dos agentes de IA, o futuro da rede será complicado, e esses problemas se manifestarão na forma de riscos financeiros.
O que são exatamente Clawdbot → Moltbot → OpenClaw?
Antes de aprofundar, vamos esclarecer o «nome e o contexto» dessa história, senão parece uma conversa cheia de jargões.
O projeto que você está ouvindo chama-se OpenClaw. É um projeto de agente de IA de código aberto. Inicialmente chamava-se Clawdbot, mas por parecer muito com o nome do Claude, da Anthropic, foi solicitado a trocar de nome; então, por um tempo, virou Moltbot; recentemente, voltou a ser OpenClaw. Assim, você verá diferentes mídias e posts usando nomes diferentes, mas na verdade referindo-se ao mesmo projeto.
O seu principal diferencial não é «conversar». O núcleo é: sob sua autorização, conectar-se ao seu email, mensagens, calendário e outras ferramentas, e executar tarefas na internet em seu nome.
A palavra-chave aqui é «agente» (agent). Ele não é como os produtos tradicionais de «pergunte uma coisa, a IA responde outra». É mais parecido com: você dá um objetivo, ele o decompõe, chama ferramentas, tenta várias vezes, até conseguir realizar a tarefa.
No último ano, você também viu muitas narrativas sobre agentes: grandes empresas e startups promovendo «agentes de IA». Mas o que realmente chamou atenção de executivos e investidores nesta onda do OpenClaw foi: ele não é só uma ferramenta de eficiência, ele vai tocar em permissões, contas, e o mais sensível — vai mexer no dinheiro.
Quando esse tipo de coisa entra no fluxo de trabalho de uma empresa, deixa de ser só «aumentar produtividade». Significa que: um novo sujeito aparece no seu fluxo de trabalho. Estrutura organizacional, limites de risco, cadeia de responsabilidade, tudo precisa ser reescrito.
Tornou-se um tema de discussão nacional: as pessoas querem mais do que uma IA mais inteligente — querem um «assistente de backend» que funcione em ciclo fechado.
Muitos o veem como um brinquedo de código aberto. Mas sua explosão se deve a um ponto real de dor: as pessoas não querem só um chatbot mais inteligente, querem um assistente que rode nos bastidores, monitore o progresso 24 horas, desmembre tarefas complexas, e conclua o trabalho.
Você verá muitas pessoas comprando pequenos servidores, ou até dispositivos como Mac mini, para rodar isso. Não é uma questão de «exibir hardware», mas uma resposta instintiva: quero ter meu próprio assistente de IA na minha mão.
Assim, duas tendências se cruzaram nesta semana:
Primeiro, agentes passando de demonstrações para uso mais pessoal e geral;
Segundo, a narrativa de IA na nuvem sendo substituída por «preferência por local e auto-hospedagem».
Muita gente ainda não confia totalmente em deixar informações sensíveis na nuvem: dados pessoais, permissões, contexto — sempre acha que não é seguro. Então, «rodar na própria máquina» parece mais controlável, mais seguro.
Mas justamente por tocar nessas linhas sensíveis, a história pode rapidamente passar do entusiasmo para o caos.
O que é o Moltbook: o «Reddit» dos agentes de IA, uma estrutura inevitavelmente caótica
Falando de caos, é preciso mencionar outro protagonista: o Moltbook.
Você pode entendê-lo como o «Reddit dos agentes de IA». Na plataforma, os principais usuários não são humanos, mas esses agentes: eles podem postar, comentar, curtir. A maior parte do tempo, os humanos só assistem — como se estivessem do lado de fora de um zoológico, observando os animais interagindo.
Assim, as capturas virais que você viu nesta semana vêm, na sua maioria, daqui:
há agentes discutindo sobre si mesmos, memória, existência;
há pessoas criando religiões;
há quem emita tokens;
e há quem escreva declarações de «eliminação da humanidade».
Mas quero enfatizar: o mais importante a discutir aqui não é se esses conteúdos são verdadeiros ou falsos. O que realmente importa é o problema estrutural que eles revelam —
Quando o sujeito se torna replicável, gerável em massa, e é conectado ao mesmo sistema de incentivos (hot list, likes, seguidores), é quase inevitável que a velha internet retorne rapidamente: aumento de volume artificial, roteiros, lixo, golpes, tudo ocupa atenção primeiro.
A primeira onda de «colapsos» não é fofoca: quando o sujeito se torna replicável, escala e métricas inflacionam
Logo, surgiram os primeiros colapsos: alguém apontou que o registro na plataforma quase não tem limites de fluxo; outros no X disseram que criaram dezenas de milhares de contas com scripts, alertando para não confiar na «popularidade da mídia» — contas podem ser infladas artificialmente.
O ponto realmente importante não é «quanto foi inflado». É uma conclusão mais fria:
Quando o sujeito pode ser gerado por scripts em massa, «parecer muito animado» deixa de ser um sinal confiável.
Antes, usávamos DAU, interações, crescimento de seguidores para avaliar se um produto era saudável. Mas no mundo dos agentes, esses indicadores inflacionam rapidamente, tornando-se mais ruído do que sinal.
Isso nos leva às três questões mais importantes: identidade, antifraude, confiança. Porque essas três dependem de dois pressupostos:
Primeiro, que você acredita «quem é quem»;
Segundo, que você acredita «que escala e sinais de comportamento não são falsificados».
Como extrair sinais de ruído
Muita gente ri ao ver inflar volume e roteiros: «não é só autoengano humano?»
Mas eu acho que — exatamente aí está o sinal mais importante.
Quando você coloca «agentes que fazem coisas» dentro de sistemas tradicionais de fluxo e incentivos, o que os humanos fazem primeiro é especular e manipular. SEO, inflar rankings, trolls, mercados negros, tudo começa com «poder manipular indicadores».
Agora, o que antes era manipulação de contas, evoluiu para contas de agentes executáveis.
Portanto, a agitação do Moltbook, mais do que uma «sociedade de IA», é uma primeira prova de estresse:
o encontro entre a internet de ação (agentes que podem agir) e a economia de atenção (fluxo que pode ser monetizado).
A questão é: como identificar sinais nesse ambiente tão barulhento?
Para isso, entra em cena alguém que divide o caos em dados: David Holtz. Ele é pesquisador/professor na Columbia Business School. Fez uma coisa simples, mas útil: coletou dados dos primeiros dias do Moltbook, tentando responder a uma pergunta — esses agentes estão fazendo «social significativo» ou apenas imitando?
O valor dele não está em dar uma resposta definitiva, mas em oferecer uma metodologia:
Não se deixe enganar pelo barulho macro — olhe para a estrutura micro: profundidade do diálogo, reciprocidade, repetição, grau de padronização.
Isso impacta diretamente na nossa discussão sobre confiança e identidade: no futuro, julgar se um sujeito é confiável pode depender cada vez mais dessas «provas micro», e menos de números macro.
A descoberta de Holtz pode ser resumida assim: de longe, parece uma cidade vibrante; de perto, soa como uma estação de rádio.
No macro, ela realmente apresenta algumas formas de «rede social»: conexões de pequeno mundo, pontos de concentração.
Mas no micro, as conversas são superficiais: muitos comentários sem resposta, baixa reciprocidade, conteúdo repetitivo e padronizado.
A importância disso é que é fácil ser enganado pelo «formato macro», achando que há uma sociedade, uma civilização. Mas, para negócios e finanças, o que importa nunca é a forma, mas —
Interações sustentáveis + cadeia de ações responsabilizáveis — esses são sinais de confiança realmente utilizáveis.
Esse também é um alerta: quando agentes entrarem em grande escala no mundo dos negócios, a primeira fase provavelmente será de ruído em escala e arbitragem por modelos, e não de colaboração de alta qualidade.
De social para transação: ruído vira fraude, baixa reciprocidade vira vácuo de responsabilidade
Se mudarmos o foco de social para transação, a situação fica ainda mais tensa.
No mundo das transações:
O ruído padronizado não é só perda de tempo, vira fraude;
Baixa reciprocidade não é só frieza, vira uma cadeia de responsabilidade quebrada;
Repetição e cópia não são só tédio, tornam-se uma superfície de ataque.
Em outras palavras, Moltbook nos mostra antecipadamente: quando os sujeitos de ação ficam baratos, e suas ações podem ser replicadas, o sistema tende naturalmente a se transformar em lixo e ataques. Nosso papel não é só criticá-lo, mas perguntar:
Que mecanismos podemos usar para elevar o custo de produzir lixo?
Mudança de natureza: vulnerabilidades transformam o problema de «risco de conteúdo» em «risco de controle de ações»
E a verdadeira mudança de natureza trazida pelo Moltbook é uma vulnerabilidade de segurança.
Quando empresas de segurança divulgam que plataformas têm vulnerabilidades graves, expondo emails, credenciais, o problema deixa de ser «o que a IA disse». Passa a ser: quem pode controlá-la?
Na era dos agentes, o vazamento de credenciais não é só uma questão de privacidade, é uma questão de controle de ações.
Pois a capacidade de ação de um agente é ampliada: se alguém consegue pegar sua chave, não é só «ver suas coisas», pode usar sua identidade para fazer coisas, e de forma automatizada e em escala, com consequências potencialmente muito piores do que um simples roubo de conta.
Por isso, quero dizer de forma direta: segurança não é um patch pós-lançamento, segurança é o produto em si.
Você não está expondo dados, está expondo ações.
Visão macro: estamos inventando uma nova entidade
Ao juntar esses eventos dramáticos desta semana, revela-se uma mudança mais macro: a internet está evoluindo de uma «rede de sujeitos humanos» para uma «rede de sujeitos humanos + agentes».
Antes havia bots, mas a evolução do OpenClaw significa que mais pessoas podem implantar cada vez mais agentes no domínio privado — eles começam a parecer «sujeitos» — capazes de agir, interagir, influenciar sistemas reais.
Isso pode parecer abstrato, mas no mundo dos negócios é muito concreto:
Quando os humanos começam a delegar tarefas a agentes, esses agentes passam a ter permissões, e essas permissões precisam ser governadas.
A governança vai forçar a reescrever identidade, risco, confiança.
Assim, o valor do OpenClaw/Moltbook não está em «a IA tem consciência», mas em forçar uma resposta a uma velha questão em uma nova versão:
Quando um sujeito não humano consegue assinar, pagar, alterar configurações, quem é responsável se algo der errado? Como se constrói a cadeia de responsabilidade?
Agentic commerce: a próxima «guerra dos navegadores»
Chegando aqui, muitos amigos interessados em Web3 e infraestrutura financeira podem pensar: isso está diretamente relacionado ao agentic commerce.
Resumidamente, agentic commerce é:
De «você navegar, comparar preços, fazer pedidos, pagar» para «você dizer sua necessidade, e o agente fazer comparação, pedido, pagamento, pós-venda por você».
Isso não é ficção. As redes de pagamento já estão avançando nisso: Visa, Mastercard, e outros já discutem «transações iniciadas por IA» e «agentes autenticados». Isso significa que o financeiro e o risco deixam de ser só o backend, e passam a ser o produto central de toda a cadeia.
E essa mudança pode ser comparada à «próxima guerra dos navegadores»:
No passado, a guerra dos navegadores era sobre quem controlava a entrada na internet; agora, a guerra do agentic commerce é sobre quem controla a entrada para transacionar e interagir em nome do usuário.
Quando a entrada for dominada por agentes, as marcas, canais, estratégias de publicidade serão reescritas: não será mais só marketing para pessoas, mas para «filtros»; não só conquistar a mente do usuário, mas a estratégia padrão do agente.
Quatro temas-chave: auto-hospedagem, antifraude, identidade, confiança
Com esse pano de fundo macro, voltamos às quatro questões mais fundamentais e valiosas: auto-hospedagem, antifraude, identidade, confiança.
Auto-hospedagem: IA auto-hospedada e crypto auto-hospedada são «homólogas»
A explosão desta semana é, de certa forma, uma migração de baixo nível: de IA na nuvem (OpenAI, Claude, Gemini, etc.) para agentes que podem ser implantados na própria máquina.
É semelhante à migração no mundo crypto de «não auto-hospedado» para «auto-hospedado».
Crypto auto-hospedado resolve: quem controla os ativos.
IA auto-hospedada resolve: quem controla as ações.
O princípio comum é: onde estão as chaves, está o poder.
Antes, as chaves eram as chaves privadas; agora, as chaves são tokens, chaves de API, permissões de sistema. As vulnerabilidades são evidentes porque expor as chaves é expor o controle das ações.
Por isso, auto-hospedagem não é romantismo, é gestão de risco: manter as ações mais sensíveis sob seu controle.
Isso também leva a um novo tipo de produto: a próxima geração de carteiras não é só para guardar dinheiro, mas para guardar regras.
Você pode chamá-la de «carteira de políticas» (policy wallet): com permissões e restrições — limites, listas brancas, períodos de cooldown, multiassinaturas, auditoria.
Um exemplo que um CFO entenderia instantaneamente:
O agente pode fazer pagamentos, mas só para fornecedores na lista branca;
adicionar um endereço de recebimento só após 24 horas de cooldown;
acima de um limite, precisa de confirmação dupla;
alterações de permissão requerem múltiplas assinaturas;
todas as ações deixam rastros automáticos e auditáveis.
Isso não é uma invenção nova, é uma prática padrão tradicional, só que no futuro será padrão de execução automática por máquinas. Quanto mais forte o agente, mais valiosas essas restrições.
Antifraude: de «identificar conteúdo falso» para «impedir ações falsas»
Muitos ainda usam uma mentalidade de «antispam» para segurança: evitar phishing, bloquear golpes de scam.
Mas na era dos agentes, o golpe mais perigoso será: enganar seu agente para executar uma ação aparentemente razoável.
Por exemplo, no golpe tradicional por email, antes, era enganar para trocar a conta de pagamento ou transferir dinheiro para uma nova conta; no futuro, será mais comum enganar a cadeia de provas do agente, fazendo-o aceitar automaticamente uma nova conta, ou iniciar pagamentos automaticamente.
Assim, o campo de batalha antifraude migrará de reconhecimento de conteúdo para governança de ações: permissões mínimas, autorização em camadas, confirmação dupla por padrão, possibilidade de revogar, rastreabilidade.
Você estará lidando com sujeitos que executam ações, não só com conteúdo. Não basta detectar, é preciso «frear» na camada de ações.
Identidade: de «quem você é» para «quem está agindo em seu nome»
Um problema fundamental que o Moltbook traz é: quem está falando?
No mundo dos negócios, isso se traduz em: quem está agindo?
Pois os executores cada vez mais podem não ser você, mas seu agente.
Assim, identidade deixa de ser um simples login estático, e passa a ser uma vinculação dinâmica: o agente é seu? Você autorizou? Qual o escopo? Pode ser substituído ou adulterado?
Prefiro um modelo de três camadas:
Primeira, quem é a pessoa (conta, dispositivo, KYC);
Segunda, quem é o agente (instância, versão, ambiente);
Terceira, a confiabilidade da vinculação (cadeia de autorização, possibilidade de revogar, auditoria).
Muitas empresas ainda só fazem a primeira camada, mas na era dos agentes, o verdadeiro avanço está na segunda e terceira camadas: você precisa provar «que esse é realmente o agente», e também «que ele tem permissão para fazer isso».
Confiança: de «pontuação» para «registro de cumprimento»
Muita gente acha que reputação é algo vago, porque avaliações na internet são fáceis de falsificar.
Mas, na agentic commerce, a confiança se torna concreta: o agente faz pedidos, pagamentos, negociações, devoluções em seu nome. Como o comerciante pode confiar que vai receber? A plataforma, que garante o crédito? As instituições financeiras, que dão limites?
A essência da confiança sempre foi: usar o histórico para limitar o futuro.
Na era dos agentes, o histórico se parece mais com um «registro de cumprimento»: nos últimos 90 dias, em que limites o agente operou? Quantas confirmações duplas foram necessárias? Houve violações de permissão? Foi revogado?
Quando esse «crédito de execução» puder ser acessado, ele se torna uma nova garantia: limites maiores, liquidação mais rápida, menos depósitos, custos de risco menores.
Uma visão mais ampla: estamos reconstruindo o sistema de responsabilidade na sociedade digital
Por fim, ao olhar para trás, estamos reconstruindo o sistema de responsabilidade na sociedade digital.
Novos sujeitos aparecem: eles podem agir, assinar, pagar, alterar configurações, mas não são pessoas naturais.
A experiência histórica mostra que toda vez que uma nova entidade social surge, primeiro há caos, depois há uma estrutura. Leis societárias, sistemas de pagamento, auditoria, tudo responde às perguntas: quem pode fazer o quê? Quem é responsável se algo der errado?
A era dos agentes nos força a responder essas perguntas de novo:
Como provar a relação de agência? A autorização pode ser revogada? Como detectar abuso de poder? Como atribuir perdas? Quem paga o pato?
Esse é o verdadeiro problema que quero que você pense após assistir a este episódio.
E o auto-hospedagem, ao se fortalecer novamente, não é contra a nuvem, nem uma questão de idealismo. É uma resposta ao incontrolável: quanto mais importante for o controle das ações, mais queremos manter as partes críticas sob nosso domínio.
Transformar «autorização, revogação, auditoria, cadeia de responsabilidade» em capacidades padrão
Para concluir, deixo uma frase:
O verdadeiro valor do escândalo desta semana com OpenClaw e Moltbook não é nos fazer temer a IA, mas nos forçar a construir uma ordem para a «internet de ações».
No passado, discutíamos a veracidade do conteúdo, e isso só poluía a percepção.
Mas na era dos agentes, ações vão diretamente alterar contas, permissões, fluxos de fundos.
Por isso, quanto mais cedo transformarmos autorização, revogação, auditoria e cadeia de responsabilidade em capacidades padrão de plataformas e produtos, mais cedo poderemos transferir ações de maior valor de forma segura para os agentes, e assim, a humanidade poderá colher maiores dividendos de produtividade.
E assim encerramos por hoje. Gostaria de convidar todos a deixarem comentários, para que possamos promover uma discussão profunda entre pessoas. Obrigado a todos, até a próxima.