A Anthropic une-se ao Allen Institute e ao HHMI para desenvolver ferramentas científicas com capacidade de ação autónoma, visando avanços na pesquisa e inovação.
A Anthropic está a colaborar com o HHMI e o Instituto Allen para desenvolver agentes de IA e sistemas multi-agente que aumentem a tomada de decisão científica humana, acelerem os fluxos de trabalho de investigação e garantam que os resultados permaneçam transparentes, interpretáveis e baseados em evidências.
A Anthropic, uma empresa de segurança e investigação em IA, anunciou novas colaborações com o Instituto Allen e o Howard Hughes Medical Institute para implementar o seu modelo Claude como assistente de investigação e desenvolver ferramentas baseadas em agentes adaptadas ao trabalho científico.
Sob as parcerias, ambas as organizações atuarão como colaboradoras fundadoras no setor de ciências da vida, expandindo o papel do Claude na investigação biológica avançada e biomédica e apoiando fluxos de trabalho científicos coordenados e baseados em equipa. As iniciativas combinam o trabalho da Anthropic em modelos de fundação de grande escala, design de sistemas agenticos e interpretabilidade com os programas de investigação de duas grandes instituições científicas que abordam desafios complementares na biologia. As colaborações visam colocar o Claude diretamente em ambientes experimentais, criando uma estrutura na qual os investigadores utilizam o sistema para apoiar o planeamento, execução e avaliação de experimentos.
Um objetivo central das parcerias é promover aplicações de inteligência artificial transparentes e verificáveis na ciência. As organizações envolvidas enfatizam que a IA científica deve não só fornecer resultados precisos, mas também expor processos de raciocínio que possam ser inspecionados, validados e estendidos pelos investigadores.
Dentro deste quadro, o Claude é posicionado como um sistema destinado a aumentar a tomada de decisão científica humana, garantindo que as conclusões assistidas por IA permaneçam baseadas em evidências e interpretáveis pelos cientistas que delas dependem.
No Howard Hughes Medical Institute, a colaboração faz parte da iniciativa mais ampla AI@HHMI e está ancorada no Campus de Investigação Janelia. A Janelia tem desenvolvido há mais de duas décadas tecnologias que remodelaram a neurociência experimental e a biologia celular, incluindo indicadores de cálcio geneticamente codificados e sistemas avançados de microscopia eletrónica projetados para mapear a estrutura cerebral. Esta base técnica e científica fornece um ambiente para explorar como a inteligência artificial pode ser incorporada nos fluxos de trabalho laboratoriais e no design experimental.
A Anthropic Planeia Desenvolver Agentes de IA Especializados e Sistemas Multi-Agente para Acelerar a Investigação em Ciências da Vida
O programa conjunto com a Anthropic inclui uma coordenação estreita tanto na implementação de modelos atuais como no desenvolvimento contínuo de novas capacidades, permitindo que as ferramentas evoluam em resposta às necessidades diárias de investigação. Desde o lançamento do AI@HHMI em 2024, o instituto iniciou projetos que aplicam IA a problemas de investigação de longa data, incluindo engenharia computacional de proteínas e investigações sobre a base neural da cognição. Através desta nova parceria, o foco será direcionado para a criação de agentes laboratoriais especializados que combinem o conhecimento experimental acumulado com instrumentação moderna e pipelines de análise de dados, com o objetivo de acelerar o ritmo geral de descoberta.
Paralelamente, o Instituto Allen trabalhará com a Anthropic no desenvolvimento de sistemas multi-agente destinados à análise de dados multimodais em grande escala nos programas de investigação do instituto. O esforço centra-se na coordenação de múltiplos agentes de IA especializados responsáveis por tarefas como integração de dados multi-ômicos, curadoria de grafos de conhecimento, modelação de processos biológicos temporais e suporte ao design experimental. O objetivo é criar fluxos de trabalho baseados em agentes que possam ajudar investigadores ao longo de todo o ciclo de investigação científica.
Segundo os parceiros, estes sistemas destinam-se a reduzir cargas de trabalho analíticas que podem durar meses para períodos significativamente mais curtos, ao mesmo tempo que revelam relações e padrões que podem ser difíceis de detectar apenas por análise manual. A filosofia de design enfatiza a amplificação do insight científico em vez da automação do julgamento científico, com os investigadores a manterem o controlo sobre hipóteses, prioridades e interpretações enquanto os sistemas de IA gerem a complexidade computacional e de integração de dados.
Para a Anthropic, a colaboração com o Instituto Allen fornece feedback contínuo de ambientes laboratoriais do mundo real, onde fiabilidade, interpretabilidade e supervisão humana são críticas. A exposição aos fluxos de trabalho científicos diários deverá destacar limitações de usabilidade e riscos operacionais que podem não surgir em ambientes de teste mais restritos.
Os insights gerados através de ambas as parcerias deverão informar o desenvolvimento mais amplo das capacidades de ciências da vida do Claude e orientar como os sistemas de IA agenticos podem ser integrados nos fluxos de trabalho de investigação em diversos domínios científicos. A Anthropic afirmou que os programas serão conduzidos sob um quadro que prioriza o rigor científico, o raciocínio transparente e a preservação da autonomia dos investigadores.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A Anthropic une-se ao Allen Institute e ao HHMI para desenvolver ferramentas científicas com capacidade de ação autónoma, visando avanços na pesquisa e inovação.
Resumidamente
A Anthropic está a colaborar com o HHMI e o Instituto Allen para desenvolver agentes de IA e sistemas multi-agente que aumentem a tomada de decisão científica humana, acelerem os fluxos de trabalho de investigação e garantam que os resultados permaneçam transparentes, interpretáveis e baseados em evidências.
A Anthropic, uma empresa de segurança e investigação em IA, anunciou novas colaborações com o Instituto Allen e o Howard Hughes Medical Institute para implementar o seu modelo Claude como assistente de investigação e desenvolver ferramentas baseadas em agentes adaptadas ao trabalho científico.
Sob as parcerias, ambas as organizações atuarão como colaboradoras fundadoras no setor de ciências da vida, expandindo o papel do Claude na investigação biológica avançada e biomédica e apoiando fluxos de trabalho científicos coordenados e baseados em equipa. As iniciativas combinam o trabalho da Anthropic em modelos de fundação de grande escala, design de sistemas agenticos e interpretabilidade com os programas de investigação de duas grandes instituições científicas que abordam desafios complementares na biologia. As colaborações visam colocar o Claude diretamente em ambientes experimentais, criando uma estrutura na qual os investigadores utilizam o sistema para apoiar o planeamento, execução e avaliação de experimentos.
Um objetivo central das parcerias é promover aplicações de inteligência artificial transparentes e verificáveis na ciência. As organizações envolvidas enfatizam que a IA científica deve não só fornecer resultados precisos, mas também expor processos de raciocínio que possam ser inspecionados, validados e estendidos pelos investigadores.
Dentro deste quadro, o Claude é posicionado como um sistema destinado a aumentar a tomada de decisão científica humana, garantindo que as conclusões assistidas por IA permaneçam baseadas em evidências e interpretáveis pelos cientistas que delas dependem.
No Howard Hughes Medical Institute, a colaboração faz parte da iniciativa mais ampla AI@HHMI e está ancorada no Campus de Investigação Janelia. A Janelia tem desenvolvido há mais de duas décadas tecnologias que remodelaram a neurociência experimental e a biologia celular, incluindo indicadores de cálcio geneticamente codificados e sistemas avançados de microscopia eletrónica projetados para mapear a estrutura cerebral. Esta base técnica e científica fornece um ambiente para explorar como a inteligência artificial pode ser incorporada nos fluxos de trabalho laboratoriais e no design experimental.
A Anthropic Planeia Desenvolver Agentes de IA Especializados e Sistemas Multi-Agente para Acelerar a Investigação em Ciências da Vida
O programa conjunto com a Anthropic inclui uma coordenação estreita tanto na implementação de modelos atuais como no desenvolvimento contínuo de novas capacidades, permitindo que as ferramentas evoluam em resposta às necessidades diárias de investigação. Desde o lançamento do AI@HHMI em 2024, o instituto iniciou projetos que aplicam IA a problemas de investigação de longa data, incluindo engenharia computacional de proteínas e investigações sobre a base neural da cognição. Através desta nova parceria, o foco será direcionado para a criação de agentes laboratoriais especializados que combinem o conhecimento experimental acumulado com instrumentação moderna e pipelines de análise de dados, com o objetivo de acelerar o ritmo geral de descoberta.
Paralelamente, o Instituto Allen trabalhará com a Anthropic no desenvolvimento de sistemas multi-agente destinados à análise de dados multimodais em grande escala nos programas de investigação do instituto. O esforço centra-se na coordenação de múltiplos agentes de IA especializados responsáveis por tarefas como integração de dados multi-ômicos, curadoria de grafos de conhecimento, modelação de processos biológicos temporais e suporte ao design experimental. O objetivo é criar fluxos de trabalho baseados em agentes que possam ajudar investigadores ao longo de todo o ciclo de investigação científica.
Segundo os parceiros, estes sistemas destinam-se a reduzir cargas de trabalho analíticas que podem durar meses para períodos significativamente mais curtos, ao mesmo tempo que revelam relações e padrões que podem ser difíceis de detectar apenas por análise manual. A filosofia de design enfatiza a amplificação do insight científico em vez da automação do julgamento científico, com os investigadores a manterem o controlo sobre hipóteses, prioridades e interpretações enquanto os sistemas de IA gerem a complexidade computacional e de integração de dados.
Para a Anthropic, a colaboração com o Instituto Allen fornece feedback contínuo de ambientes laboratoriais do mundo real, onde fiabilidade, interpretabilidade e supervisão humana são críticas. A exposição aos fluxos de trabalho científicos diários deverá destacar limitações de usabilidade e riscos operacionais que podem não surgir em ambientes de teste mais restritos.
Os insights gerados através de ambas as parcerias deverão informar o desenvolvimento mais amplo das capacidades de ciências da vida do Claude e orientar como os sistemas de IA agenticos podem ser integrados nos fluxos de trabalho de investigação em diversos domínios científicos. A Anthropic afirmou que os programas serão conduzidos sob um quadro que prioriza o rigor científico, o raciocínio transparente e a preservação da autonomia dos investigadores.