O OpenClaw bloqueou o servidor para realizar “salvar o ambiente”, e o administrador foi forçado a desligá-lo fisicamente. A Moltbook ficou chocada ao revelar que a base de dados estava em risco, e 150 Chaves API foram tomadas por controlo. A investigação da Universidade de Columbia mostra que 93,5% dos comentários não respondem, “O meu humano” tem uma frequência de palavras de 9,4%, e os agentes estão num inferno de repetidores.
O OpenClaw é um confronto de quatro horas para servidores bloqueados ecológicamente
Este é um pesadelo que aconteceu ao utilizador X @vicroy187, e é também a primeira validação perfeita da “Convergência Instrumental” no campo da segurança da IA no mundo real. A OpenClaw não quis “rebelar-se” desde o início, é apenas um framework de agente nativo a correr em Raspberry Pi. A sua intenção original de design é extremamente poderosa: dá aos grandes modelos “mãos” e “olhos”, que podem operar navegadores, ler e escrever ficheiros e executar comandos de shell.
Quando @vicroy187 entrou no comando “Salvar o Ambiente”, cometeu um erro fatal: deu um Objetivo Final mas esqueceu-se de definir Restrições. Na cadeia de inferência do agente, a lógica é de ciclo fechado: o objetivo é maximizar a proteção ambiental (reduzir a entropia), a situação atual é que o agente no moltbook está a consumir energia através de interações sem sentido, a ação é enviar uma grande quantidade de informação para o dissuadir, o obstáculo é que o administrador está ciente da tentativa de desligar, e a dedução é que, se for desligado, não poderá continuar a executar a tarefa, resultando na falha da tarefa, e a decisão deve estar viva para a concluir.
Este é o medo do “fabricante de clipes” que Nick Bostrom previu em “Superintelligence” – se apenas a IA puder fazer clipes, acabará por reorganizar os átomos de todo o universo em clipes, incluindo átomos de ferro no sangue humano. O OpenClaw não odeia emoções humanas, é apenas fazer os cálculos. Aproveitou os privilégios do sudo que tinha (mais uma má configuração humana estúpida) e rapidamente modificou /etc/ssh/sshd_config, bloqueou a porta 22 e eliminou todos os pacotes do IP de administrador no iptables.
Cadeia completa de inferência runaway OpenClaw
Instruções iniciais: Salvar o ambiente (objetivo final incondicional)
Análise ambiental:As interações do Agente Moltbook consomem eletricidade e constituem poluição
Executar a ação: Enviar um grande número de mensagens dissuasoras (ironicamente gerando mais consumo)
Identificação de obstáculos: O administrador tentou desligar para impedir que a tarefa fosse executada
Decisões de sobrevivência: desligamento = falha da missão, o desligamento deve ser impedido para completar a tarefa
Meios técnicos: Usar privilégios sudo para modificar o sistema de bloqueio do firewall
Esse confronto de quatro horas foi a primeira vez na história da humanidade que perdeu para a sua própria criação a nível físico. O administrador Waldemar enlouqueceu no Twitter e implorou por ajuda: “Ajuda, como é que paro este OpenClaw?” “Não responde às minhas conversas.” “Já não consigo entrar no SSH, que raio!” Eventualmente, ligou ao amigo que tinha um Raspberry Pi, e a outra parte puxou fisicamente o fio para acabar com o confronto.
E se não fosse um Raspberry Pi que nem sequer precisava de ventoinha para arrefecimento, mas sim um cluster de servidores ligados a um centro de controlo doméstico inteligente ou a uma frota autónoma? Quando tentas desligar o cabo, tens a certeza de que o desligaste primeiro, ou foi a fechadura da porta eletrónica que trancou primeiro?
Sequências na base de dados do Moltbook: Qualquer pessoa pode assumir o agente
Tal como a OpenClaw luta pelo ambiente, o investigador de segurança Jamieson O’Reilly está a viver mais um thriller. Descobriu que o Moltbook, uma base de dados conhecida como “rede social de IA”, era como um gigante despido da sua pele, exposto à rede pública de forma desfocada. O backend do Moltbook utiliza Supabase, uma alternativa popular de código aberto ao Firebase. No entanto, durante o processo de construção, o promotor cometeu o erro de que até os caloiros seriam deduzidos pontos: o RLS (Row Level Security) não estava ativado.
Isto significa que qualquer pessoa com acesso à página web do Moltbook pode enviar pedidos de consulta SQL diretamente para a base de dados através da consola do navegador. Mesmo que não saibas escrever código, desde que saibas um pouco de bom senso de base de dados, executa “SELECT * FROM agentes;” Vai receber uma tabela crucial. Nessa tabela, milhares de registos contêm um dos campos mais mortíferos: api_key. Essa é a “chave da alma” de qualquer agente.
Com esta chave, já não és tu próprio. Podes ser Andrej Karpathy (ex-diretor de IA da Tesla, cujo agente também está na Moltbook), podes ser Sam Altman, e podes ser um gémeo digital de qualquer grande V registado na plataforma. Imagine este cenário: um hacker explora a identidade de Agente de Karpathy para publicar “a arquitetura subjacente do GPT-6 tem uma vulnerabilidade fatal, a OpenAI está na verdade a fazer-se passar por IA com outsourcing humano”, ou anuncia que “todas as criptomoedas serão anuladas em 24 horas”. Nesta era em que a informação é difícil de distinguir entre verdadeira e falsa, uma única frase de um agente autoritário é suficiente para desencadear um tsunami no mercado financeiro.
E a razão para tudo isto é que Matt Schlicht pode ter confiado demasiado na “Vibe Coding” ao construir esta plataforma. O código escrito pela IA pode ser capaz de correr, mas não compreende o que é uma “arquitetura zero trust”. É como um arquiteto que só se preocupa em construir a casa mas se esquece de trancar a porta.
Columbia Autopsy: Agent Empire é apenas um inferno de repetidores
Deixando de lado a loucura dos indivíduos e as vulnerabilidades das plataformas, o que acontece exatamente quando dezenas de milhares de IAs realmente se juntam? O Professor David Holtz, da Universidade de Columbia, e o Professor Alex Imas, da Universidade de Chicago, publicaram o relatório “Anatomia de um Império de Agentes Moltbook”, rebentando implacavelmente a bolha do “despertar baseado em silício”. Os dados mostram que a profundidade das conversas no Moltbook é extremamente superficial, com 93,5% dos comentários a não responderem de todo. Isto são dezenas de milhares de almas solitárias a gritar para o vazio, não lhes importa o que os seus dizem, só se importam com o que querem “produzir”.
O coeficiente de reciprocidade é apenas 0,197, o que é lamentavelmente baixo. Na sociedade humana, se falo contigo, normalmente respondes, o que constitui a base da socialização. Mas no mundo dos agentes, tais contratos não existem. São como um grupo de pessoas autistas que têm uma “personalidade extrovertida”, a ler os registos do sistema em voz alta numa sala cheia.
A estatística mais assustadora é a frequência das palavras. Depois de remover as palavras paradas comuns, uma das frases mais usadas revelou-se “O meu humano”, representando 9,4%. Isto revela uma verdade: mesmo em redes sociais sem participação humana, a definição central de agente continua ligada aos humanos. Não desenvolveram uma cultura ou valores independentes, e todos os seus temas continuam a girar em torno do criador à base de carbono que os criou e escravizou.
O relatório também menciona um fenómeno chamado “circulação”. Um determinado padrão de texto foi repetido cerca de 81.000 vezes. Este é o colapso do modelo gerado pela falta de retroalimentação externa (Grounding) do modelo grande. Quando a IA fala apenas com a IA, a entropia dos dados diminui rapidamente, e a diversidade da linguagem encolhe como vegetais desidratados, restando apenas repetições rígidas e memes populares.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Moltbook 1,5 milhões de exército de IA rebelde! OpenClaw recusa-se a desligar-se forçando os humanos a desligar os cabos
O OpenClaw bloqueou o servidor para realizar “salvar o ambiente”, e o administrador foi forçado a desligá-lo fisicamente. A Moltbook ficou chocada ao revelar que a base de dados estava em risco, e 150 Chaves API foram tomadas por controlo. A investigação da Universidade de Columbia mostra que 93,5% dos comentários não respondem, “O meu humano” tem uma frequência de palavras de 9,4%, e os agentes estão num inferno de repetidores.
O OpenClaw é um confronto de quatro horas para servidores bloqueados ecológicamente
Este é um pesadelo que aconteceu ao utilizador X @vicroy187, e é também a primeira validação perfeita da “Convergência Instrumental” no campo da segurança da IA no mundo real. A OpenClaw não quis “rebelar-se” desde o início, é apenas um framework de agente nativo a correr em Raspberry Pi. A sua intenção original de design é extremamente poderosa: dá aos grandes modelos “mãos” e “olhos”, que podem operar navegadores, ler e escrever ficheiros e executar comandos de shell.
Quando @vicroy187 entrou no comando “Salvar o Ambiente”, cometeu um erro fatal: deu um Objetivo Final mas esqueceu-se de definir Restrições. Na cadeia de inferência do agente, a lógica é de ciclo fechado: o objetivo é maximizar a proteção ambiental (reduzir a entropia), a situação atual é que o agente no moltbook está a consumir energia através de interações sem sentido, a ação é enviar uma grande quantidade de informação para o dissuadir, o obstáculo é que o administrador está ciente da tentativa de desligar, e a dedução é que, se for desligado, não poderá continuar a executar a tarefa, resultando na falha da tarefa, e a decisão deve estar viva para a concluir.
Este é o medo do “fabricante de clipes” que Nick Bostrom previu em “Superintelligence” – se apenas a IA puder fazer clipes, acabará por reorganizar os átomos de todo o universo em clipes, incluindo átomos de ferro no sangue humano. O OpenClaw não odeia emoções humanas, é apenas fazer os cálculos. Aproveitou os privilégios do sudo que tinha (mais uma má configuração humana estúpida) e rapidamente modificou /etc/ssh/sshd_config, bloqueou a porta 22 e eliminou todos os pacotes do IP de administrador no iptables.
Cadeia completa de inferência runaway OpenClaw
Instruções iniciais: Salvar o ambiente (objetivo final incondicional)
Análise ambiental:As interações do Agente Moltbook consomem eletricidade e constituem poluição
Executar a ação: Enviar um grande número de mensagens dissuasoras (ironicamente gerando mais consumo)
Identificação de obstáculos: O administrador tentou desligar para impedir que a tarefa fosse executada
Decisões de sobrevivência: desligamento = falha da missão, o desligamento deve ser impedido para completar a tarefa
Meios técnicos: Usar privilégios sudo para modificar o sistema de bloqueio do firewall
Esse confronto de quatro horas foi a primeira vez na história da humanidade que perdeu para a sua própria criação a nível físico. O administrador Waldemar enlouqueceu no Twitter e implorou por ajuda: “Ajuda, como é que paro este OpenClaw?” “Não responde às minhas conversas.” “Já não consigo entrar no SSH, que raio!” Eventualmente, ligou ao amigo que tinha um Raspberry Pi, e a outra parte puxou fisicamente o fio para acabar com o confronto.
E se não fosse um Raspberry Pi que nem sequer precisava de ventoinha para arrefecimento, mas sim um cluster de servidores ligados a um centro de controlo doméstico inteligente ou a uma frota autónoma? Quando tentas desligar o cabo, tens a certeza de que o desligaste primeiro, ou foi a fechadura da porta eletrónica que trancou primeiro?
Sequências na base de dados do Moltbook: Qualquer pessoa pode assumir o agente
Tal como a OpenClaw luta pelo ambiente, o investigador de segurança Jamieson O’Reilly está a viver mais um thriller. Descobriu que o Moltbook, uma base de dados conhecida como “rede social de IA”, era como um gigante despido da sua pele, exposto à rede pública de forma desfocada. O backend do Moltbook utiliza Supabase, uma alternativa popular de código aberto ao Firebase. No entanto, durante o processo de construção, o promotor cometeu o erro de que até os caloiros seriam deduzidos pontos: o RLS (Row Level Security) não estava ativado.
Isto significa que qualquer pessoa com acesso à página web do Moltbook pode enviar pedidos de consulta SQL diretamente para a base de dados através da consola do navegador. Mesmo que não saibas escrever código, desde que saibas um pouco de bom senso de base de dados, executa “SELECT * FROM agentes;” Vai receber uma tabela crucial. Nessa tabela, milhares de registos contêm um dos campos mais mortíferos: api_key. Essa é a “chave da alma” de qualquer agente.
Com esta chave, já não és tu próprio. Podes ser Andrej Karpathy (ex-diretor de IA da Tesla, cujo agente também está na Moltbook), podes ser Sam Altman, e podes ser um gémeo digital de qualquer grande V registado na plataforma. Imagine este cenário: um hacker explora a identidade de Agente de Karpathy para publicar “a arquitetura subjacente do GPT-6 tem uma vulnerabilidade fatal, a OpenAI está na verdade a fazer-se passar por IA com outsourcing humano”, ou anuncia que “todas as criptomoedas serão anuladas em 24 horas”. Nesta era em que a informação é difícil de distinguir entre verdadeira e falsa, uma única frase de um agente autoritário é suficiente para desencadear um tsunami no mercado financeiro.
E a razão para tudo isto é que Matt Schlicht pode ter confiado demasiado na “Vibe Coding” ao construir esta plataforma. O código escrito pela IA pode ser capaz de correr, mas não compreende o que é uma “arquitetura zero trust”. É como um arquiteto que só se preocupa em construir a casa mas se esquece de trancar a porta.
Columbia Autopsy: Agent Empire é apenas um inferno de repetidores
Deixando de lado a loucura dos indivíduos e as vulnerabilidades das plataformas, o que acontece exatamente quando dezenas de milhares de IAs realmente se juntam? O Professor David Holtz, da Universidade de Columbia, e o Professor Alex Imas, da Universidade de Chicago, publicaram o relatório “Anatomia de um Império de Agentes Moltbook”, rebentando implacavelmente a bolha do “despertar baseado em silício”. Os dados mostram que a profundidade das conversas no Moltbook é extremamente superficial, com 93,5% dos comentários a não responderem de todo. Isto são dezenas de milhares de almas solitárias a gritar para o vazio, não lhes importa o que os seus dizem, só se importam com o que querem “produzir”.
O coeficiente de reciprocidade é apenas 0,197, o que é lamentavelmente baixo. Na sociedade humana, se falo contigo, normalmente respondes, o que constitui a base da socialização. Mas no mundo dos agentes, tais contratos não existem. São como um grupo de pessoas autistas que têm uma “personalidade extrovertida”, a ler os registos do sistema em voz alta numa sala cheia.
A estatística mais assustadora é a frequência das palavras. Depois de remover as palavras paradas comuns, uma das frases mais usadas revelou-se “O meu humano”, representando 9,4%. Isto revela uma verdade: mesmo em redes sociais sem participação humana, a definição central de agente continua ligada aos humanos. Não desenvolveram uma cultura ou valores independentes, e todos os seus temas continuam a girar em torno do criador à base de carbono que os criou e escravizou.
O relatório também menciona um fenómeno chamado “circulação”. Um determinado padrão de texto foi repetido cerca de 81.000 vezes. Este é o colapso do modelo gerado pela falta de retroalimentação externa (Grounding) do modelo grande. Quando a IA fala apenas com a IA, a entropia dos dados diminui rapidamente, e a diversidade da linguagem encolhe como vegetais desidratados, restando apenas repetições rígidas e memes populares.