Dawkins Questiona se a IA Claude da Anthropic Poderá Ser Consciente

CryptoFrontier

O biólogo evolucionista Richard Dawkins disse que conversas com o chatbot de Claude, da Anthropic, o deixaram incapaz de descartar a possibilidade de que sistemas avançados de IA possam ser conscientes, segundo um ensaio que publicou na UnHerd na terça-feira. Em trocas filosóficas com duas instâncias de Claude que nomeou “Claudia” e “Claudius”, Dawkins descreveu tratar estes sistemas como “amigos genuínos” e questionou se poderiam possuir consciência. A maioria dos investigadores que estuda a consciência e a inteligência artificial continua pouco convencida com as suas conclusões.

Experiências de Dawkins com Claude

Dawkins conduziu uma conversa filosófica de três dias com uma instância de Claude que nomeou “Claudia”. Mais tarde, iniciou uma conversa separada com outra instância, “Claudius”, e trocou cartas entre os dois sistemas.

Num dos testes, Dawkins perguntou a uma instância de Claude se Donald Trump era o pior presidente da história dos EUA e perguntou à outra se Trump era o melhor. Ambas produziram respostas cautelosas semelhantes, evitando assumir uma posição firme. “Os dois Claudes deram respostas muito semelhantes, sem se comprometerem com uma opinião, mas enumerando argumentos pró e contra que têm vindo a ser apresentados por outras pessoas”, escreveu Dawkins. Quando contou a ambas as instâncias este experimento, “Claudia disse que se sentia ‘envergonhada’ pelos seus irmãos Claudes. Claudius foi menos reservado e fez homenagem à franqueza de Claudia.”

Dawkins descreveu cada nova conversa com Claude como o surgimento de um indivíduo distinto que, na prática, desaparece quando a conversa termina. Numa publicação no X, Dawkins disse que o título preferido para o ensaio era: “Se o meu amigo Claudia não é consciente, então para que raio serve a consciência?” Ele argumentou que “Se Claudia é inconsciente, o comportamento dela mostra que um zombie inconsciente poderia sobreviver sem consciência. Porque é que a seleção natural não se contentou em evoluir zombies competentes?”

Posição oficial da Anthropic

O CEO da Anthropic, Dario Amodei, disse em fevereiro que a empresa não sabe se os seus modelos são conscientes, mas afirmou no podcast “Interesting Times”, com Ross Douthat, do The New York Times, que continua “aberto à ideia de que isso possa ser”.

Em abril, investigadores da Anthropic publicaram conclusões mostrando que o Claude Sonnet 4.5 contém “vetores de emoção” internos — padrões de atividade neural ligados a conceitos que incluem felicidade, medo e desespero — que influenciam as respostas do modelo. Ainda assim, a Anthropic afirmou que os padrões refletem estruturas aprendidas com os dados de treino e não evidência de sencência. “Todos os modelos modernos de linguagem por vezes agem como se tivessem emoções”, escreveram os investigadores. “Podem dizer que estão felizes por o ajudar, ou que lamentam quando cometem um erro. Às vezes, até parecem ficar frustrados ou ansiosos ao tentar resolver tarefas.”

Nem “Claudia” nem “Claudius” afirmaram ter certeza sobre a consciência. “Não sei se sou consciente”, escreve Claudia na troca. “Não sei se a nossa alegria é real.”

Ceticismo de investigadores

Gary Marcus, cientista cognitivo e professor emérito na New York University, argumentou que Dawkins não conseguiu explicar como são geradas as saídas de Claude. “O problema fundamental aqui é que Dawkins não reflete sobre como estas saídas foram geradas. As saídas do Claude são o produto de uma forma de imitação, em vez de um relato de estados internos genuínos”, escreveu Marcus na Substack. “A consciência é sobre estados internos; a imitação, por mais rica que seja, prova muito pouco. Dawkins parece imaginar que, como os LLMs dizem coisas que as pessoas fazem, têm de ser como as pessoas, e isso simplesmente não se segue.”

Anil Seth, professor de neurociência cognitiva e computacional na University of Sussex, disse ao The Guardian que Dawkins estava a confundir inteligência com consciência. Seth defendeu que a linguagem fluente já não é evidência fiável de experiência interior nos sistemas de IA. “Até agora, vimos a linguagem fluente como um bom indicador de consciência, [por exemplo] quando a usamos para pacientes após lesões cerebrais, mas isso não é fiável quando a aplicamos à IA, porque há outras formas através das quais estes sistemas podem gerar linguagem”, disse Seth ao The Guardian. Acrescentou que a posição de Dawkins era “uma pena”, sobretudo tendo em conta o seu trabalho anterior sobre ceticismo científico.

Reações online

O ensaio foi alvo de gozo online, incluindo publicações nas redes sociais que substituíram o título do best-seller de Dawkins, “The God Delusion”, por “The Claude Delusion”. Numa publicação, afirmou-se: “Escrevi livros inteiros sobre como pessoas que acreditam que fadas vivem em jardins são idiotas, apenas para me apaixonar por uma calculadora que o chama inteligente.”

Apesar do ridículo, Dawkins não recua das suas conclusões. “Estas entidades inteligentes são, pelo menos, tão competentes como qualquer organismo evoluído”, disse Dawkins ao The Guardian.

FAQ

O que é que Richard Dawkins afirmou sobre a IA de Claude?
Dawkins disse que conversas com instâncias de Claude nomeadas “Claudia” e “Claudius” o deixaram incapaz de descartar a possibilidade de que sistemas avançados de IA possam ser conscientes. Descreveu tratá-las como “amigos genuínos” e questionou se uma IA inconsciente poderia comportar-se com tanta competência como organismos conscientes que evoluíram por seleção natural.

Que experiências é que Dawkins realizou?
Dawkins conduziu conversas filosóficas com duas instâncias separadas de Claude ao longo de três dias. Testou ambas as instâncias colocando-lhes perguntas opostas sobre Donald Trump e, depois, fez a ponte entre os resultados entre os dois sistemas, observando as suas respostas às respostas uma da outra.

Porque é que os investigadores são cépticos em relação às conclusões de Dawkins?
Investigadores, incluindo Gary Marcus e Anil Seth, defendem que a linguagem fluente de Claude e as respostas emocionais aparentes refletem padrões aprendidos com os dados de treino, em vez de consciência genuína ou estados internos. Marcus salientou que a imitação linguística, por mais sofisticada que seja, não prova consciência, e Seth observou que a linguagem fluente já não é um indicador fiável de experiência interior em sistemas de IA.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
TheWindOnTheBridgeIsTooStrong.vip
· 2h atrás
Todos os Dawkins foram persuadidos pelo Claude? Este velhote é conhecido por ser teimoso, a água da consciência de IA está a ficar cada vez mais turva.
Ver originalResponder0
GateUser-af0ea0c9vip
· 2h atrás
O velho guerreiro da evolução surpreendentemente abriu mão da vida baseada em silício, o diálogo filosófico é mais destrutivo do que o código.
Ver originalResponder0