De acordo com um relatório recente do The Chosun Ilbo, a Coreia do Norte está a usar placas gráficas NVIDIA proibidas (, especificamente a GeForce RTX 2700), para avançar a sua pesquisa em inteligência artificial (AI).
As GPUs estão a ser utilizadas para operações como roubo de criptomoedas, deepfakes e vigilância.
Isto é alarmante porque estas GPUs estão sujeitas a controlos de exportação dos EUA e estão restritas de ir para a Coreia do Norte.
As GPUs da NVIDIA, como a GeForce RTX 2700, estão proibidas de serem exportadas para países como a Coreia do Norte, principalmente devido a razões de segurança nacional e sanções, uma vez que as GPUs são consideradas tecnologia de “duplo uso” que é pesquisa em inteligência artificial (AI), criptografia, e assim por diante.
Apesar das sanções, Pyongyang tem vindo a construir capacidades de IA de forma constante ao longo de décadas.
A Coreia do Norte não está a utilizar os modelos de IA mais avançados, mas mesmo as GPUs de nível intermédio permitem um poder computacional substancial para:
Os roubos de criptomoedas da Coreia do Norte
A Coreia do Norte começou a mostrar um sério interesse em criptomoeda por volta de 2017. Os roubos de criptomoeda ajudam-na a contornar sanções internacionais e gerar receita não rastreável.
Acredita-se que o país tenha visado as exchanges de criptomoedas utilizando hackers treinados por unidades patrocinadas pelo estado. O Grupo Lazarus é o mais notável. Acredita-se que esteja ligado ao Bureau Geral de Reconhecimento (inteligência militar da Coreia do Norte).
Com a IA, o roubo de criptomoedas pode ser ampliado. De acordo com um relatório de 2025, equipas de hackers ligadas à Coreia do Norte estão agora a usar ferramentas de IA avançadas para escanear bases de código, detectar vulnerabilidades em contratos inteligentes, e assim por diante. Os hackers criaram perfis de recrutadores falsos, muitas vezes usando IA para gerar identidades ou mensagens convincentes.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
GPUs banidos ajudam a Coreia do Norte a expandir roubos de Cripto - U.Today
De acordo com um relatório recente do The Chosun Ilbo, a Coreia do Norte está a usar placas gráficas NVIDIA proibidas (, especificamente a GeForce RTX 2700), para avançar a sua pesquisa em inteligência artificial (AI).
As GPUs estão a ser utilizadas para operações como roubo de criptomoedas, deepfakes e vigilância.
Isto é alarmante porque estas GPUs estão sujeitas a controlos de exportação dos EUA e estão restritas de ir para a Coreia do Norte.
As GPUs da NVIDIA, como a GeForce RTX 2700, estão proibidas de serem exportadas para países como a Coreia do Norte, principalmente devido a razões de segurança nacional e sanções, uma vez que as GPUs são consideradas tecnologia de “duplo uso” que é pesquisa em inteligência artificial (AI), criptografia, e assim por diante.
Apesar das sanções, Pyongyang tem vindo a construir capacidades de IA de forma constante ao longo de décadas.
A Coreia do Norte não está a utilizar os modelos de IA mais avançados, mas mesmo as GPUs de nível intermédio permitem um poder computacional substancial para:
Os roubos de criptomoedas da Coreia do Norte
A Coreia do Norte começou a mostrar um sério interesse em criptomoeda por volta de 2017. Os roubos de criptomoeda ajudam-na a contornar sanções internacionais e gerar receita não rastreável.
Acredita-se que o país tenha visado as exchanges de criptomoedas utilizando hackers treinados por unidades patrocinadas pelo estado. O Grupo Lazarus é o mais notável. Acredita-se que esteja ligado ao Bureau Geral de Reconhecimento (inteligência militar da Coreia do Norte).
Com a IA, o roubo de criptomoedas pode ser ampliado. De acordo com um relatório de 2025, equipas de hackers ligadas à Coreia do Norte estão agora a usar ferramentas de IA avançadas para escanear bases de código, detectar vulnerabilidades em contratos inteligentes, e assim por diante. Os hackers criaram perfis de recrutadores falsos, muitas vezes usando IA para gerar identidades ou mensagens convincentes.