28 de fevereiro de notícias, Sam Altman anunciou hoje na plataforma X que a OpenAI chegou a um acordo com o Departamento de Guerra dos Estados Unidos para implantar seu modelo de inteligência artificial na rede confidencial dos EUA. Altman afirmou que, em todas as interações, o Departamento de Guerra demonstrou grande preocupação com a segurança da IA e deseja obter os melhores resultados por meio da colaboração.
Altman destacou que a segurança e a acessibilidade da inteligência artificial são a missão central da OpenAI. Os dois princípios de segurança essenciais propostos pela empresa — proibir monitoramento em larga escala no país e garantir que os humanos sejam responsáveis pelo uso da força — foram reconhecidos pelo Departamento de Guerra e incorporados na legislação e nas políticas. Esses princípios também fazem parte do acordo formal entre as partes.
Para garantir a segurança do funcionamento do modelo, a OpenAI implantará dispositivos de aprimoramento de funcionalidades (FDE) e operará apenas na nuvem. Além disso, as duas partes planejam construir medidas de proteção tecnológica para evitar o uso indevido ou comportamentos anômalos do modelo. Altman também pediu ao Departamento de Guerra dos EUA que ofereça os mesmos termos de cooperação a todas as empresas de inteligência artificial, reforçando a importância de uma competição justa e da responsabilidade compartilhada.
De modo geral, este acordo não só marca a aplicação oficial de tecnologias avançadas de IA em redes sensíveis pelo governo dos EUA, mas também destaca a implementação prática da segurança e responsabilidade ética da IA em cenários militares. Altman afirmou que a OpenAI continuará empenhada em beneficiar toda a humanidade com a inteligência artificial, ao mesmo tempo em que promove o desenvolvimento responsável de tecnologia em ambientes complexos, caóticos e até perigosos.
Esta colaboração gerou amplo interesse na indústria, sendo vista como uma possível abertura para novas aplicações de IA na defesa e em infraestruturas críticas, além de provocar debates sobre a segurança dos sistemas autônomos de armas e a responsabilidade das decisões humanas.