Nova pesquisa da MIND revela impacto crítico da confiança nos dados no sucesso das iniciativas de IA

Nova investigação da MIND revela o impacto crítico da confiança nos dados no sucesso das iniciativas de IA

Nova investigação da MIND revela o impacto crítico da confiança nos dados no sucesso das iniciativas de IA

PR Newswire

SEATTLE, 8 de abril de 2026

Pontos-chave de uma investigação original sobre como os CISO veem o papel da confiança nos dados que afecta a vantagem competitiva da IA.

SEATTLE, 8 de abril de 2026 /PRNewswire/ – A MIND, em parceria com a CISO Executive Network, anunciou hoje uma nova investigação, The Impact of Data Trust on AI Initiative Success. Os resultados apontam para uma lacuna crescente entre a adopção rápida de IA e a capacidade de proteger e governar os dados que a alimentam.

                 ![](https://img-cdn.gateio.im/social/moments-97acb87755-78e82bf344-8b7abd-badf29)

A IA já está integrada em toda a empresa. De acordo com o relatório, 90% das organizações estão a executar enterprise GenAI em escala, mas 65% dos CISO não têm confiança nos seus controlos de segurança de dados e apenas 20% das iniciativas de IA cumprem os seus KPI pretendidos.

A investigação apresenta um insight claro: a confiança nos dados é o nível de confiança de que os sistemas, incluindo a IA, utilizam os dados com segurança e de forma adequada. Quando essa confiança é alta, as organizações avançam mais depressa. Quando não é, a IA abranda, entra em pausa ou introduz risco que supera o seu valor.

“A IA ultrapassou a fase de experimentação. Está a operar à escala, muitas vezes sem as bases de dados necessárias para a suportar”, disse Eran Barak, Co-Fundador e CEO da MIND. “O que estamos a ver é uma lacuna estrutural entre a rapidez e o controlo. A confiança nos dados fecha essa lacuna. Permite às organizações inovar sem introduzir risco invisível e escalar a IA com confiança, em vez de hesitação.”

O estudo, baseado num inquérito a 124 CISO e em vinte entrevistas aprofundadas com este grupo, destaca vários padrões consistentes. As organizações têm políticas para IA, mas têm dificuldade em aplicá-las à velocidade da máquina. As data estates continuam por classificar e sem governação. As estruturas de segurança foram construídas para o comportamento humano, não para sistemas autónomos. O resultado é uma falha mensurável, e não um risco teórico.

Quase dois terços dos CISO reportam baixa confiança na sua capacidade de impedir o acesso a dados de IA não seguro. Ao mesmo tempo, a pressão do negócio para acelerar a adopção de IA continua a aumentar, aumentando a exposição.

“As conversas que estamos a ter com os nossos CISO membros são consistentes”, disse Bill Sieglein, Fundador e COO da CISO Executive Network. “Eles sabem que a IA vai gerar vantagem competitiva, mas preocupam-se com os riscos. A confiança nos dados tornou-se um dos factores de decisão importantes entre aqueles que avançam com segurança e aqueles que lutam.”

O relatório enquadra a IA como um teste de esforço dos fundamentos de segurança existentes. As organizações com bases de dados fortes estão posicionadas para acelerar. As que não as têm enfrentam um risco crescente de falha, incluindo iniciativas suspensas, exposição regulatória e potencial disrupção do negócio.

No seu núcleo, a investigação reconfigura a segurança dos dados como um impulsionador do negócio. À medida que as empresas adoptam a inovação em IA, a elevada confiança nos dados passa de protecção para se tornar um acelerador competitivo.

A perspectiva da MIND reflecte esta mudança. A empresa posiciona a segurança de dados não como uma barreira à IA, mas como a condição que torna a IA viável à escala. Ao permitir que as organizações compreendam, controlem e actuem sobre o risco de dados em tempo real, a MIND suporta um modelo de Stress-Free DLP, em que a segurança opera com a velocidade e precisão que a IA exige.

O relatório completo, “The Impact of Data Trust on AI Initiative Success,” está disponível agora.

**Sobre a MIND

**A MIND tem como missão ajudar as organizações a ganharem tranquilidade e a prosperarem num mundo digital nesta era de IA, protegendo os seus dados mais sensíveis, mitigando riscos de dados e preservando a reputação da marca. A MIND é a primeira plataforma de segurança de dados alguma vez criada que descobre e classifica autonomamente dados sensíveis, corrige problemas de segurança de dados e pára fugas de dados num só lugar, para que as organizações possam colocar os seus programas de prevenção de perda de dados e gestão de risco de insiders em modo automático. Permitimos que as empresas se concentrem no que realmente importa - os seus dados mais sensíveis. Fundada e liderada por veteranos de cibersegurança, a MIND está sediada em Seattle, WA. Para mais informações, contacte-nos em info@mind.io.

Sobre CISO Executive Network
CISO ExecNet é uma organização profissional de adesão por pares para 2.000+ executivos séniores de segurança da informação nos Estados Unidos. Fundada em 2005, opera através de 30+ capítulos regionais com Executive Breakfast Roundtables, eventos nacionais e fóruns de discussão. A adesão é apenas por convite, limitada a líderes de segurança em organizações grandes e de média dimensão. A rede fornece um fórum de confiança para partilhar as melhores práticas, obter perspectivas dos pares e envolver-se com especialistas nos desafios enfrentados por líderes de segurança modernos.

Contacto de Media para MIND:
Michelle Kearney
Hi-Touch PR
443-857-9468
kearney@hi-touchpr.com

Ver conteúdo original para descarregar multimédia:https://www.prnewswire.com/news-releases/new-research-from-mind-reveals-critical-impact-of-data-trust-on-ai-initiative-success-302734996.html

FONTE MIND

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar