Notícias do Gate News, a 10 de abril, uma resposta recente de Musk na plataforma X gerou uma onda de discussões públicas sobre a estimativa da escala de parâmetros do modelo flagship da Anthropic. Ao responder a um utilizador que insistiu para saber o número de parâmetros do Grok 4.2, Musk confirmou: «0,5 biliões de parâmetros no total. Atualmente, o Grok corresponde a metade do Sonnet e a um décimo do Opus. Pelo seu volume, trata-se de um modelo muito poderoso.» Se, com base no que Musk disse — «o Grok 4.2 é um décimo do Opus» — se fizer um cálculo inverso, os parâmetros do Claude Opus rondarão os 5 biliões e os do Claude Sonnet cerca de 1 bilião. Note-se que a Anthropic nunca divulgou publicamente a escala de parâmetros de nenhum dos seus modelos; os números acima são apenas inferências feitas com base nas declarações de Musk e não dados oficiais. Entretanto, Musk revelou que o cluster supercomputador Colossus 2, da SpaceX AI, está a treinar em simultâneo 7 modelos, com o maior a atingir 10 biliões de parâmetros, e acrescentou: «Há ainda alguns avanços a fazer.» Se as estimativas forem verdadeiras, o Claude Opus, com 5 biliões de parâmetros, ficaria no topo dos modelos já conhecidos e actualmente implantados; já o modelo com 10 biliões de parâmetros que a xAI está a treinar em simultâneo tornar-se-á uma variável importante na próxima ronda de competição.