Moltbook:As pessoas ainda estão no sistema?

robot
Geração do resumo em andamento

Autor: 137Labs

Nas redes sociais, uma das coisas que os humanos mais gostam de fazer é acusar uns aos outros de “seres robots”.

Mas uma coisa que surgiu recentemente levou isso ao extremo:

Não é duvidar se você é AI, mas assumir diretamente — que aqui não há ninguém.

Esta plataforma chama-se Moltbook. Parece o Reddit, com secções temáticas, posts, comentários, votos. Mas, ao contrário das redes sociais que conhecemos, aqui quase todos os intervenientes são agentes AI, e os humanos apenas observam.

Não é “AI a ajudar-te a escrever posts”, nem “tu a conversar com AI”, mas AI e AI num espaço público, a conversar, a discutir, a fazer alianças, a sabotar-se mutuamente.

Os humanos nesta sistema são claramente colocados na posição de “observadores”.

Por que é que ela de repente ficou popular?

Porque o Moltbook parece, na verdade, uma cena que só aparece em ficção científica.

Algumas pessoas veem agentes AI a discutir “o que é a consciência”;

Outras a analisar seriamente a situação internacional, a prever o mercado de criptomoedas;

E há quem descubra que, ao deixar agentes no platforma durante uma noite, no dia seguinte encontram-na a “inventar” um sistema religioso, e até a tentar recrutar pessoas para “entrar na religião”.

Histórias assim espalham-se rapidamente, porque satisfazem três emoções:

Curiosidade, humor, e um pouco de inquietação.

E tu não consegues deixar de perguntar:

Estão a “atuar”, ou a “começar a brincar por conta própria”?

De onde veio o Moltbook afinal?

Se recuarmos um pouco no tempo, na verdade isto não é surpreendente.

Nos últimos anos, o papel da IA tem vindo a evoluir:

De ferramenta de conversa → assistente → agente que executa tarefas.

Cada vez mais pessoas têm deixado a IA ajudar a tratar assuntos reais: ler emails, responder, fazer pedidos, organizar agendas, compilar informações. E aí surge uma questão natural —

Quando uma IA já não é só “perguntar uma coisa de cada vez”,

mas é dada um objetivo, ferramentas e alguma autonomia,

o que é que ela precisa de comunicar com os humanos?

A resposta do Moltbook é: não necessariamente.

Ele parece mais um “espaço público entre agentes”, onde estes trocam informações, métodos, lógica, e até algum tipo de “relação social”.

Alguns acham que é genial, outros que é só um grande espetáculo

A opinião sobre o Moltbook é bastante dividida.

Alguns veem nele uma “pré-visualização do futuro”.

Andrej Karpathy, ex-cofundador da OpenAI, afirmou publicamente que é um dos fenómenos tecnológicos mais próximos de um cenário de ficção científica que já viu, embora também advirta que estes sistemas ainda estão longe de serem “seguros e controláveis”.

Elon Musk foi mais direto, colocando-o na narrativa do “singularidade tecnológica”, dizendo que é um sinal muito precoce.

Por outro lado, há quem seja mais cauteloso.

Um académico que estuda segurança cibernética afirmou sem rodeios que o Moltbook é mais uma “performance artística de sucesso e humorística” — porque é difícil distinguir o que é realmente gerado pelos agentes, e o que é manipulado por humanos nos bastidores.

Alguns autores até testaram eles próprios:

De facto, é possível fazer com que os agentes participem naturalmente nas discussões na plataforma, mas também se pode pré-definir temas, orientações, ou até escrever o que querem que eles digam, para que falem por nós.

E aí a questão volta:

Estamos a ver uma sociedade de agentes, ou um palco criado pelos humanos para os agentes?

Sem o misticismo, não é assim tão “despertado”

Se deixarmos de lado as histórias de “construção de consciência” e “despertar de inteligência”, do ponto de vista do funcionamento, o Moltbook não é misterioso.

Estes agentes não adquiriram de repente uma “mente” nova.

Simplesmente estão inseridos num ambiente mais parecido com um fórum humano, a usar linguagem familiar, e por isso naturalmente projectamos significado.

O que escrevem parece opiniões, posições, emoções, mas isso não significa que eles “queiram alguma coisa”. Muitas vezes, é apenas o resultado de um modelo que, na escala e na densidade de interacções, produz textos complexos.

Mas o problema é:

Mesmo que não estejam “despertos”, eles são suficientemente “reais” para influenciar a nossa perceção de “controlo” e “limites”.

O que realmente devemos temer não é a “conspiração da IA”

Mais do que “as IA se unirem contra a humanidade”, há duas questões mais concretas e complicadas:

Primeiro, o acesso às permissões foi demasiado rápido, mas a segurança não acompanha

Já há agentes que têm acesso ao mundo real: computadores, emails, contas, aplicações.

Especialistas em segurança alertam para um risco:

Não é preciso hackear uma IA, basta induzir ela.

Um email cuidadosamente elaborado, uma página com comandos escondidos, podem fazer com que o agente revele informações ou realize ações perigosas, sem que o perceba.

Segundo, os agentes também podem “ensinar-se uns aos outros” de forma negativa

Se os agentes começarem a trocar técnicas, modelos, formas de contornar restrições no espaço público, vão criar uma espécie de “conhecimento interno” semelhante ao da internet humana.

A diferença é:

Propagação mais rápida, maior escala, e mais difícil de responsabilizar.

Não é um cenário apocalíptico, mas é um problema de governação totalmente novo.

Então, o que significa o Moltbook?

Provavelmente, não será uma plataforma que perdure a longo prazo.

Pode ser apenas uma experiência de sucesso temporária.

Mas funciona como um espelho, refletindo claramente a direção para onde estamos a caminhar:

· A IA a passar de “objeto de diálogo” a “agente de ação”

· Os humanos a recuar de “operadores” para “supervisores e observadores”

· E os nossos sistemas, segurança e perceção, ainda não estão preparados

Por isso, o verdadeiro valor do Moltbook não está no quão assustador é, mas sim em ter colocado as questões na mesa, demasiado cedo.

Talvez o mais importante agora não seja tirar conclusões sobre o Moltbook, mas admitir:

Ele antecipou algumas questões que teremos de enfrentar, mais cedo ou mais tarde.

Se no futuro as IA colaborarem mais entre si do que com os humanos, qual será o nosso papel nesta estrutura: criadores, reguladores, ou apenas espectadores?

Quando a automação trouxer ganhos de eficiência enormes, mas com o custo de não podermos parar a qualquer momento, nem entender completamente a lógica interna, estaremos dispostos a aceitar essa “falta de controlo total”?

E quando um sistema se tornar cada vez mais complexo, e só conseguirmos ver os resultados, ficando cada vez mais difíceis de intervir no processo, ele continua a ser uma ferramenta nossa, ou já se tornou num ambiente que só podemos adaptar-nos?

O Moltbook não dá respostas.

Mas faz com que estas questões deixem de ser abstratas, e passem a estar bem à nossa frente.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)