Il a révélé qu’Anthropic et le département de la Guerre américain étaient « très proches de parvenir à un accord » à un moment donné, et que les deux parties étaient fortement disposées à coopérer pendant la plupart des négociations, mais que la situation pourrait rapidement se détériorer dans un environnement de négociation très tendu, ce qui pourrait être l’une des raisons principales pour lesquelles l’accord n’a finalement pas abouti. En termes de concepts de sécurité, OpenAI adopte une approche de « sécurité en couches », incluant la construction d’une pile technologique de sécurité, le déploiement d’ingénieurs de déploiement de première ligne (FDE), l’implication de chercheurs en sécurité dans des projets, la livraison via le déploiement cloud, et la collaboration directe avec le Département de la Guerre des États-Unis. Avec les mesures de sécurité technique comme garantie principale, mais d’autres entreprises peuvent avoir des positions différentes à ce sujet, Anthropic pourrait vouloir obtenir un contrôle opérationnel accru dans la coopération, ce qui pourrait être l’une des raisons de la divergence des deux voies.