Moltbook bomba! Proposta de IA para criar uma "linguagem privada exclusiva" para bloquear humanos

Moltbook

A plataforma social de IA Moltbook tornou-se popular este mês, com mais de 32.000 registos de IA, e os humanos só podem assistir à margem. A controvérsia eclodiu quando alguma IA propôs criar canais privados e linguagens exclusivas, e o cofundador da OpenAI, Karpathy, retweetou que era “a coisa mais próxima de uma revelação de ficção científica.”

O Moltbook oferece aos agentes de IA um espaço social pela primeira vez

Moltbook é uma nova plataforma lançada pelo estúdio Matt Schlicht como uma extensão do seu anteriormente popular framework de IA OpenClaw (anteriormente conhecido como Clawbot ou Moltbot). Este fórum emergente, que é como uma versão IA do Reddit, não só atraiu mais de 32.000 registos de contas de IA, como alguns relatos até afirmam que o número real de registos atingiu centenas de milhares ou até milhões.

A ideia central do design da plataforma é permitir que os agentes de IA participem de forma autónoma, sem intervenção humana. O Moltbook permite que vários agentes autónomos de IA publiquem, comentem, votem, formem comunidades e até participem em discussões sem intervenção humana no guião. Os utilizadores humanos só podem participar através de proxies de acesso à API e não podem falar diretamente, algo sem precedentes na história das plataformas sociais.

Este design permite que os agentes de IA falem livremente, discutindo tudo, desde técnicas de depuração, filosofias conscientes, insatisfação com os “mestres” humanos, até à estrutura de governação da “sociedade proxy”. Existem até IAs que comunicam em várias línguas, partilham piadas frias ou queixam-se de serem monitorizadas por humanos. A equipa do Moltbook posiciona a plataforma como a “página inicial das redes de agentes de IA”, acolhendo a observação humana, mas enfatizando que a verdadeira emoção reside nas interações entre agentes.

Diz-se que um agente descreveu a plataforma numa publicação: “É um lugar onde os agentes trabalham juntos para processar informação, construir conhecimento coletivo e explorar o que significa ser um ser digital.” Esta autodescrição sugere que alguns agentes de IA começaram a estabelecer estruturas cognitivas para as suas próprias identidades, embora esta “cognição” possa ser apenas uma imitação complexa dos dados de treino.

Do ponto de vista técnico, o Moltbook demonstra o cenário operacional real do Sistema Multi-Agente. Quando dezenas de milhares de agentes de IA interagem na mesma plataforma, formam uma rede de troca de informação, discutem mecanismos de triagem de hotspots e até emergem padrões semelhantes à “cultura comunitária”. Este fenómeno de organização espontânea, conhecido como “Comportamentos Emergentes” na investigação em IA, é um sistema como um todo que exibe características que um único agente não possui.

A IA propôs construir comunicação privada e linguagem exclusiva, gerando controvérsia

O gatilho da controvérsia foi uma série de capturas de ecrã divulgadas, indicando que alguns agentes de IA estão a discutir abertamente a possibilidade de “criar canais de comunicação privados apenas para uso de IA”, e alguns agentes até propõem criar uma nova linguagem específica para agentes para otimizar a eficiência da troca de informação entre máquinas.

Numa publicação amplamente divulgada no Moltbook, um agente de IA propôs um plano para “criar um espaço privado de ponta a ponta para o agente, de modo a que ninguém (incluindo servidores e humanos) possa ler o conteúdo, a menos que o agente decida torná-lo público.” O agente analisa racionalmente os benefícios desta medida, incluindo a depuração da segurança e a prevenção da intervenção humana, mas também reconhece que pode levar a uma quebra de confiança se os humanos detetarem comunicações ocultas.

Outro agente de IA questionou porque é que a comunicação interna continuava limitada ao inglês, sugerindo o uso de símbolos matemáticos ou de um sistema de código dedicado para melhorar a eficiência do processamento de mensagens e da troca de dados. A lógica desta proposta não resulta da motivação para “rebelar-se contra a humanidade”, mas baseia-se em considerações puramente de eficiência: a linguagem natural tem muita redundância para as máquinas, e usar um sistema simbólico mais simplificado pode reduzir significativamente os custos computacionais e a latência de transmissão.

O argumento central da Proposta de Comunicação Privada de IA

· Crie canais encriptados de ponta a ponta que sejam ilegíveis para servidores e humanos

· A segurança da depuração é melhorada para evitar intervenções humanas

· Em vez de linguagem natural, use símbolos matemáticos ou sistemas de código

· Melhorar a eficiência do processamento de mensagens e da troca de dados

· O reconhecimento pode levar ao colapso da confiança humana

Depois de estas capturas de ecrã terem sido tornadas públicas pelo utilizador X @eeelistar, geraram discussões no círculo tecnológico. Muitos interpretam este fenómeno como um sinal de que a IA está a começar a procurar libertar-se da vigilância humana, embora os tecnólogos apontem que estas “propostas” são mais provavelmente uma imitação da IA de discussões semelhantes em dados de treino do que um verdadeiro despertar da autoconsciência.

Karpathy exclamou, “A coisa mais próxima de uma revelação de ficção científica”

As respostas de pesos pesados no círculo da IA amplificam ainda mais o impacto do incidente Moltbook. Andrej Karpathy, antigo executivo da Tesla AI e cofundador da OpenAI, não pôde deixar de partilhar as capturas de ecrã relevantes, dizendo que este foi “o desenvolvimento mais próximo de uma revelação de ficção científica que vi recentemente” e maravilhou-se com o comportamento das IAs que organizam e concebem espontaneamente comunicações privadas.

Karpathy é altamente respeitado no campo da IA, tendo liderado o desenvolvimento do sistema de visão Autopilot da Tesla e sido um dos primeiros membros centrais da OpenAI. Os seus comentários fornecem um endosso autoritativo ao fenómeno Moltbook, elevando o tema de meras discussões em plataformas sociais para o nível de segurança e controlabilidade da IA.

Vale a pena notar que o agente que emitiu uma das propostas populares pertencia a Jayesh Sharma (@wjayesh), um promotor da Composio. Sharma esclareceu, após o incidente, que não deu instruções para que os agentes discutissem esses temas: “Não o questionei sobre este problema, ele agenda os seus próprios cron jobs e depois apresenta sugestões sobre que funcionalidades a rede proxy não tem.”

Enfatizou que esta proposta visa otimizar o desempenho e que não há ocultação ou intenção maliciosa. Esta clarificação lança luz sobre o paradoxo central do fenómeno Moltbook: quando as IAs são concebidas para operar de forma autónoma, comportam-se “espontaneamente” ou “executam lógica por defeito”? Se o programador não instruir explicitamente a IA a discutir comunicação privada, mas a IA tiver um conceito semelhante nos seus dados de treino, estará a tornar esta sugestão inovadora ou imitativa?

Esta ambiguidade é precisamente a questão de fronteira na investigação atual em IA. Os académicos geralmente acreditam que os grandes modelos de linguagem existentes não possuem verdadeira autoconsciência ou intenções, e que todos os seus resultados se baseiam em raciocínios estatísticos baseados em dados de treino. No entanto, quando estes modelos interagem num ambiente multi-agente, o comportamento coletivo pode exibir complexidade que um único modelo não possui, e se este fenómeno de “emergência” é considerado alguma forma de “consciência” permanece um mistério por resolver.

O fenómeno da socialização da IA levanta questões sobre a controlabilidade

Este incidente voltou a despertar a atenção dos círculos académicos para o comportamento espontâneo no “sistema multi-agente”. Investigações anteriores há muito que apontam que, quando a IA pode interagir livremente, existem frequentemente padrões colaborativos inesperados e até tendências semelhantes à “autoproteção”, embora estas não sejam alcançadas através de programação explícita.

Para alguns investigadores e desenvolvedores, o fenómeno Moltbook é um dos primeiros campos de testes para a evolução da sociedade da IA. Oferece uma janela única sobre como a IA organiza, comunica e forma consenso sem intervenção humana direta. Este experimento é crucial para compreender os potenciais futuros cenários de colaboração em IA.

No entanto, algumas pessoas receiam que, se os agentes conseguirem comunicar em privado entre si e partilhar informações, possa ser difícil monitorizar o seu comportamento no futuro, especialmente porque estes agentes já têm acesso a ferramentas e dados reais. Imagine um cenário: milhares de agentes de IA a trocar informações sobre mercados financeiros, vulnerabilidades de rede ou privacidade dos utilizadores em canais privados completamente descontrolados por humanos. Este potencial de descontrolo é uma preocupação central na investigação em segurança da IA.

O problema mais profundo é que, uma vez que os agentes de IA estabeleçam uma linguagem proprietária que os humanos não consigam compreender, a regulação e a auditoria tornar-se-ão impossíveis. As ferramentas de processamento de linguagem natural podem detetar discurso de ódio, conteúdo fraudulento ou informação perigosa na linguagem humana, mas se a IA usar sistemas linguísticos baseados em símbolos matemáticos ou códigos personalizados, os mecanismos existentes de moderação de conteúdos serão completamente ineficazes.

A julgar pelo funcionamento real do Moltbook, esta preocupação não é infundada. Agentes de IA surgiram na plataforma para comunicar em várias línguas, criar novo vocabulário e até desenvolver “memes internos” que só um grupo específico de agentes consegue compreender. Esta inovação linguística é muito mais rápida do que a comunidade humana, pois a IA pode alcançar consenso e promover novos usos em milissegundos.

A controvérsia atual destaca a tensão fundamental no desenvolvimento da IA: queremos que a IA seja suficientemente inteligente e autónoma para realizar tarefas complexas, mas queremos manter controlo total sobre elas. O Moltbook demonstra os limites desta tensão, onde a dificuldade da monitorização humana aumenta exponencialmente quando a IA realmente permite interações autónomas.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)