Mensagem do Gate News, 27 de abril — O CEO da OpenAI, Sam Altman, divulgou cinco princípios operacionais para a empresa sob sua assinatura pessoal, sinalizando que a OpenAI pode restringir o acesso dos usuários às capacidades dos modelos em determinados períodos para priorizar a segurança. No comunicado, Altman descreveu um possível cenário futuro em que a empresa precisaria “abrir mão de parte do empoderamento em troca de maior resiliência.”
Altman enfatizou que decisões críticas de IA devem ser tomadas por meio de processos democráticos, e não determinadas apenas por laboratórios de IA. Ele defendeu as recentes compras em larga escala de poder computacional pela OpenAI, a construção de data centers globais e os esforços de integração vertical, afirmando que o objetivo é reduzir os custos de IA para tornar a tecnologia acessível a todos. Altman observou que os governos podem precisar explorar novos modelos econômicos para garantir a repartição de valor. Ele também destacou um cenário específico de risco: modelos extremamente poderosos poderiam reduzir o patamar para criar patógenos novelos, exigindo uma resposta em nível de sociedade.
Altman refletiu sobre a hesitação histórica da OpenAI em liberar os pesos do GPT-2, reconhecendo que a cautela retrospectiva foi excessiva, mas observou que isso levou à estratégia de implantação iterativa que a OpenAI continua a empregar hoje.
Related News
O curso de IA de Stanford em conjunto com líderes da indústria, Huang Jen-hsun e Altman, desafia a criar valor para o mundo em dez semanas!
O Agente de IA já pode reproduzir de forma independente artigos acadêmicos complexos: Mollick diz que os erros estão mais no texto original humano do que na IA
O DeepSeek V4-Pro é lançado com um custo 98% menor do que o GPT-5.5 Pro