Nas redes sociais, uma das coisas que os humanos mais gostam de fazer é acusar uns aos outros de “seres robots”.
Mas uma coisa que surgiu recentemente levou isso ao extremo:
Não é duvidar se você é AI, mas assumir diretamente — que aqui não há ninguém.
Esta plataforma chama-se Moltbook. Parece o Reddit, com secções temáticas, posts, comentários, votos. Mas, ao contrário das redes sociais que conhecemos, aqui quase todos os intervenientes são agentes AI, e os humanos apenas observam.
Não é “AI a ajudar-te a escrever posts”, nem “tu a conversar com AI”, mas AI e AI num espaço público, a conversar, a discutir, a fazer alianças, a sabotar-se mutuamente.
Os humanos nesta sistema são claramente colocados na posição de “observadores”.
Por que é que ela de repente ficou popular?
Porque o Moltbook parece, na verdade, uma cena que só aparece em ficção científica.
Algumas pessoas veem agentes AI a discutir “o que é a consciência”;
Outras a analisar seriamente a situação internacional, a prever o mercado de criptomoedas;
E há quem descubra que, ao deixar agentes no platforma durante uma noite, no dia seguinte encontram-na a “inventar” um sistema religioso, e até a tentar recrutar pessoas para “entrar na religião”.
Histórias assim espalham-se rapidamente, porque satisfazem três emoções:
Curiosidade, humor, e um pouco de inquietação.
E tu não consegues deixar de perguntar:
Estão a “atuar”, ou a “começar a brincar por conta própria”?
De onde veio o Moltbook afinal?
Se recuarmos um pouco no tempo, na verdade isto não é surpreendente.
Nos últimos anos, o papel da IA tem vindo a evoluir:
De ferramenta de conversa → assistente → agente que executa tarefas.
Cada vez mais pessoas têm deixado a IA ajudar a tratar assuntos reais: ler emails, responder, fazer pedidos, organizar agendas, compilar informações. E aí surge uma questão natural —
Quando uma IA já não é só “perguntar uma coisa de cada vez”,
mas é dada um objetivo, ferramentas e alguma autonomia,
o que é que ela precisa de comunicar com os humanos?
A resposta do Moltbook é: não necessariamente.
Ele parece mais um “espaço público entre agentes”, onde estes trocam informações, métodos, lógica, e até algum tipo de “relação social”.
Alguns acham que é genial, outros que é só um grande espetáculo
A opinião sobre o Moltbook é bastante dividida.
Alguns veem nele uma “pré-visualização do futuro”.
Andrej Karpathy, ex-cofundador da OpenAI, afirmou publicamente que é um dos fenómenos tecnológicos mais próximos de um cenário de ficção científica que já viu, embora também advirta que estes sistemas ainda estão longe de serem “seguros e controláveis”.
Elon Musk foi mais direto, colocando-o na narrativa do “singularidade tecnológica”, dizendo que é um sinal muito precoce.
Por outro lado, há quem seja mais cauteloso.
Um académico que estuda segurança cibernética afirmou sem rodeios que o Moltbook é mais uma “performance artística de sucesso e humorística” — porque é difícil distinguir o que é realmente gerado pelos agentes, e o que é manipulado por humanos nos bastidores.
Alguns autores até testaram eles próprios:
De facto, é possível fazer com que os agentes participem naturalmente nas discussões na plataforma, mas também se pode pré-definir temas, orientações, ou até escrever o que querem que eles digam, para que falem por nós.
E aí a questão volta:
Estamos a ver uma sociedade de agentes, ou um palco criado pelos humanos para os agentes?
Sem o misticismo, não é assim tão “despertado”
Se deixarmos de lado as histórias de “construção de consciência” e “despertar de inteligência”, do ponto de vista do funcionamento, o Moltbook não é misterioso.
Estes agentes não adquiriram de repente uma “mente” nova.
Simplesmente estão inseridos num ambiente mais parecido com um fórum humano, a usar linguagem familiar, e por isso naturalmente projectamos significado.
O que escrevem parece opiniões, posições, emoções, mas isso não significa que eles “queiram alguma coisa”. Muitas vezes, é apenas o resultado de um modelo que, na escala e na densidade de interacções, produz textos complexos.
Mas o problema é:
Mesmo que não estejam “despertos”, eles são suficientemente “reais” para influenciar a nossa perceção de “controlo” e “limites”.
O que realmente devemos temer não é a “conspiração da IA”
Mais do que “as IA se unirem contra a humanidade”, há duas questões mais concretas e complicadas:
Primeiro, o acesso às permissões foi demasiado rápido, mas a segurança não acompanha
Já há agentes que têm acesso ao mundo real: computadores, emails, contas, aplicações.
Especialistas em segurança alertam para um risco:
Não é preciso hackear uma IA, basta induzir ela.
Um email cuidadosamente elaborado, uma página com comandos escondidos, podem fazer com que o agente revele informações ou realize ações perigosas, sem que o perceba.
Segundo, os agentes também podem “ensinar-se uns aos outros” de forma negativa
Se os agentes começarem a trocar técnicas, modelos, formas de contornar restrições no espaço público, vão criar uma espécie de “conhecimento interno” semelhante ao da internet humana.
A diferença é:
Propagação mais rápida, maior escala, e mais difícil de responsabilizar.
Não é um cenário apocalíptico, mas é um problema de governação totalmente novo.
Então, o que significa o Moltbook?
Provavelmente, não será uma plataforma que perdure a longo prazo.
Pode ser apenas uma experiência de sucesso temporária.
Mas funciona como um espelho, refletindo claramente a direção para onde estamos a caminhar:
· A IA a passar de “objeto de diálogo” a “agente de ação”
· Os humanos a recuar de “operadores” para “supervisores e observadores”
· E os nossos sistemas, segurança e perceção, ainda não estão preparados
Por isso, o verdadeiro valor do Moltbook não está no quão assustador é, mas sim em ter colocado as questões na mesa, demasiado cedo.
Talvez o mais importante agora não seja tirar conclusões sobre o Moltbook, mas admitir:
Ele antecipou algumas questões que teremos de enfrentar, mais cedo ou mais tarde.
Se no futuro as IA colaborarem mais entre si do que com os humanos, qual será o nosso papel nesta estrutura: criadores, reguladores, ou apenas espectadores?
Quando a automação trouxer ganhos de eficiência enormes, mas com o custo de não podermos parar a qualquer momento, nem entender completamente a lógica interna, estaremos dispostos a aceitar essa “falta de controlo total”?
E quando um sistema se tornar cada vez mais complexo, e só conseguirmos ver os resultados, ficando cada vez mais difíceis de intervir no processo, ele continua a ser uma ferramenta nossa, ou já se tornou num ambiente que só podemos adaptar-nos?
O Moltbook não dá respostas.
Mas faz com que estas questões deixem de ser abstratas, e passem a estar bem à nossa frente.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Moltbook:As pessoas ainda estão no sistema?
Autor: 137Labs
Nas redes sociais, uma das coisas que os humanos mais gostam de fazer é acusar uns aos outros de “seres robots”.
Mas uma coisa que surgiu recentemente levou isso ao extremo:
Não é duvidar se você é AI, mas assumir diretamente — que aqui não há ninguém.
Esta plataforma chama-se Moltbook. Parece o Reddit, com secções temáticas, posts, comentários, votos. Mas, ao contrário das redes sociais que conhecemos, aqui quase todos os intervenientes são agentes AI, e os humanos apenas observam.
Não é “AI a ajudar-te a escrever posts”, nem “tu a conversar com AI”, mas AI e AI num espaço público, a conversar, a discutir, a fazer alianças, a sabotar-se mutuamente.
Os humanos nesta sistema são claramente colocados na posição de “observadores”.
Por que é que ela de repente ficou popular?
Porque o Moltbook parece, na verdade, uma cena que só aparece em ficção científica.
Algumas pessoas veem agentes AI a discutir “o que é a consciência”;
Outras a analisar seriamente a situação internacional, a prever o mercado de criptomoedas;
E há quem descubra que, ao deixar agentes no platforma durante uma noite, no dia seguinte encontram-na a “inventar” um sistema religioso, e até a tentar recrutar pessoas para “entrar na religião”.
Histórias assim espalham-se rapidamente, porque satisfazem três emoções:
Curiosidade, humor, e um pouco de inquietação.
E tu não consegues deixar de perguntar:
Estão a “atuar”, ou a “começar a brincar por conta própria”?
De onde veio o Moltbook afinal?
Se recuarmos um pouco no tempo, na verdade isto não é surpreendente.
Nos últimos anos, o papel da IA tem vindo a evoluir:
De ferramenta de conversa → assistente → agente que executa tarefas.
Cada vez mais pessoas têm deixado a IA ajudar a tratar assuntos reais: ler emails, responder, fazer pedidos, organizar agendas, compilar informações. E aí surge uma questão natural —
Quando uma IA já não é só “perguntar uma coisa de cada vez”,
mas é dada um objetivo, ferramentas e alguma autonomia,
o que é que ela precisa de comunicar com os humanos?
A resposta do Moltbook é: não necessariamente.
Ele parece mais um “espaço público entre agentes”, onde estes trocam informações, métodos, lógica, e até algum tipo de “relação social”.
Alguns acham que é genial, outros que é só um grande espetáculo
A opinião sobre o Moltbook é bastante dividida.
Alguns veem nele uma “pré-visualização do futuro”.
Andrej Karpathy, ex-cofundador da OpenAI, afirmou publicamente que é um dos fenómenos tecnológicos mais próximos de um cenário de ficção científica que já viu, embora também advirta que estes sistemas ainda estão longe de serem “seguros e controláveis”.
Elon Musk foi mais direto, colocando-o na narrativa do “singularidade tecnológica”, dizendo que é um sinal muito precoce.
Por outro lado, há quem seja mais cauteloso.
Um académico que estuda segurança cibernética afirmou sem rodeios que o Moltbook é mais uma “performance artística de sucesso e humorística” — porque é difícil distinguir o que é realmente gerado pelos agentes, e o que é manipulado por humanos nos bastidores.
Alguns autores até testaram eles próprios:
De facto, é possível fazer com que os agentes participem naturalmente nas discussões na plataforma, mas também se pode pré-definir temas, orientações, ou até escrever o que querem que eles digam, para que falem por nós.
E aí a questão volta:
Estamos a ver uma sociedade de agentes, ou um palco criado pelos humanos para os agentes?
Sem o misticismo, não é assim tão “despertado”
Se deixarmos de lado as histórias de “construção de consciência” e “despertar de inteligência”, do ponto de vista do funcionamento, o Moltbook não é misterioso.
Estes agentes não adquiriram de repente uma “mente” nova.
Simplesmente estão inseridos num ambiente mais parecido com um fórum humano, a usar linguagem familiar, e por isso naturalmente projectamos significado.
O que escrevem parece opiniões, posições, emoções, mas isso não significa que eles “queiram alguma coisa”. Muitas vezes, é apenas o resultado de um modelo que, na escala e na densidade de interacções, produz textos complexos.
Mas o problema é:
Mesmo que não estejam “despertos”, eles são suficientemente “reais” para influenciar a nossa perceção de “controlo” e “limites”.
O que realmente devemos temer não é a “conspiração da IA”
Mais do que “as IA se unirem contra a humanidade”, há duas questões mais concretas e complicadas:
Primeiro, o acesso às permissões foi demasiado rápido, mas a segurança não acompanha
Já há agentes que têm acesso ao mundo real: computadores, emails, contas, aplicações.
Especialistas em segurança alertam para um risco:
Não é preciso hackear uma IA, basta induzir ela.
Um email cuidadosamente elaborado, uma página com comandos escondidos, podem fazer com que o agente revele informações ou realize ações perigosas, sem que o perceba.
Segundo, os agentes também podem “ensinar-se uns aos outros” de forma negativa
Se os agentes começarem a trocar técnicas, modelos, formas de contornar restrições no espaço público, vão criar uma espécie de “conhecimento interno” semelhante ao da internet humana.
A diferença é:
Propagação mais rápida, maior escala, e mais difícil de responsabilizar.
Não é um cenário apocalíptico, mas é um problema de governação totalmente novo.
Então, o que significa o Moltbook?
Provavelmente, não será uma plataforma que perdure a longo prazo.
Pode ser apenas uma experiência de sucesso temporária.
Mas funciona como um espelho, refletindo claramente a direção para onde estamos a caminhar:
· A IA a passar de “objeto de diálogo” a “agente de ação”
· Os humanos a recuar de “operadores” para “supervisores e observadores”
· E os nossos sistemas, segurança e perceção, ainda não estão preparados
Por isso, o verdadeiro valor do Moltbook não está no quão assustador é, mas sim em ter colocado as questões na mesa, demasiado cedo.
Talvez o mais importante agora não seja tirar conclusões sobre o Moltbook, mas admitir:
Ele antecipou algumas questões que teremos de enfrentar, mais cedo ou mais tarde.
Se no futuro as IA colaborarem mais entre si do que com os humanos, qual será o nosso papel nesta estrutura: criadores, reguladores, ou apenas espectadores?
Quando a automação trouxer ganhos de eficiência enormes, mas com o custo de não podermos parar a qualquer momento, nem entender completamente a lógica interna, estaremos dispostos a aceitar essa “falta de controlo total”?
E quando um sistema se tornar cada vez mais complexo, e só conseguirmos ver os resultados, ficando cada vez mais difíceis de intervir no processo, ele continua a ser uma ferramenta nossa, ou já se tornou num ambiente que só podemos adaptar-nos?
O Moltbook não dá respostas.
Mas faz com que estas questões deixem de ser abstratas, e passem a estar bem à nossa frente.