56% dos líderes temem pela segurança de dados na IA: preocupação cresce junto com os investimentos
Um novo relatório global da Hitachi Vantara mostra que o entusiasmo com a inteligência artificial vem acompanhado de um alerta vermelho: a segurança de dados já é o principal obstáculo percebido pelas lideranças na adoção da tecnologia. De acordo com o Relatório Global sobre o Estado da Infraestrutura de Dados 2025, 56% dos executivos entrevistados enxergam a proteção das informações como o maior desafio para implementar iniciativas de IA – um salto de 19 pontos percentuais em relação ao levantamento anterior, de 2024.
O estudo ouviu mais de 1.200 executivos C-level e líderes de TI de grandes organizações, todas com mais de mil colaboradores. A conclusão central é clara: nos próximos dois anos, os investimentos em IA devem acelerar, mas o movimento virá acompanhado por uma escalada nas preocupações com risco, governança, compliance e confiabilidade dos modelos. Em outras palavras, a corrida pela inovação está, cada vez mais, amarrada à capacidade de proteger e governar dados de forma madura.
Segurança de dados assume o topo da agenda
O avanço da IA, em especial da IA generativa, fez com que a exposição de dados sensíveis, vazamentos e uso indevido de informações passassem a ser vistos como riscos centrais para o negócio. O relatório mostra que:
– segurança de dados é hoje o principal desafio apontado por 56% das lideranças;
– esse índice representa um aumento de 19% em relação ao ano anterior;
– a preocupação não se limita ao ambiente interno: ela se conecta a questões regulatórias, reputacionais e operacionais.
Esse movimento reflete a percepção de que modelos de IA dependem diretamente da qualidade e da proteção dos dados que consomem. Quanto mais a empresa utiliza algoritmos para automatizar processos críticos, mais vulnerável se torna a qualquer falha de segurança, seja ela técnica, humana ou de governança.
Crescem os temores com violações internas e ataques externos
Além da preocupação geral com segurança de dados, o estudo evidencia um aumento expressivo nas inquietações específicas sobre diferentes tipos de risco ligados à IA:
– risco de violação interna de sistemas de IA subiu de 31% para 41%;
– receio de ataques externos conduzidos ou potencializados por IA avançou de 41% para 43%;
– preocupação com conformidade regulatória aumentou de 31% para 37%.
Esses números mostram que as empresas já não enxergam a IA apenas como “ferramenta de produtividade”, mas também como vetor de ataque e superfície de exposição. Funcionários com acesso indevido a modelos, falhas de configuração, uso de dados sensíveis em treinamentos e exploração de vulnerabilidades por criminosos digitais entram no radar como ameaças concretas.
Queda na taxa de sucesso percebida dos modelos de IA
Outro dado relevante é a queda na percepção de sucesso dos projetos de IA, especialmente no campo da IA generativa. Ferramentas como ChatGPT, Copilot e soluções similares, que antes eram vistas como quase unanimemente bem-sucedidas, registraram:
– recuo na taxa de sucesso percebida de 95% para 81%.
Essa queda não significa, necessariamente, que as tecnologias “pioraram”, mas que as expectativas das empresas se tornaram mais realistas e exigentes. À medida que os projetos saem da fase de prova de conceito e passam a sustentar operações críticas, surgem problemas de qualidade de resposta, alucinações, falta de explicabilidade, custos de infraestrutura, riscos legais e dificuldades de integração com sistemas legados.
No fim, a régua de sucesso mudou: não basta impressionar em uma demonstração; é preciso entregar valor contínuo, de forma segura, auditável e em conformidade com as normas.
Governança e qualidade de dados ganham espaço
Em paralelo ao aumento das preocupações, o relatório indica uma reação positiva das empresas: cresce o investimento em governança de dados, qualidade da informação e práticas de monitoramento dos modelos. Entre os principais movimentos identificados estão:
– a proporção de empresas que melhoram os dados usados para treinamento da IA subiu de 39% para 49%;
– a adoção de frameworks estruturados de governança de dados avançou de 32% para 45%;
– a realização de auditorias regulares de desempenho de modelos cresceu de 36% para 44%;
– o percentual de organizações sem qualquer estratégia para explicar o funcionamento dos modelos caiu de 42% para 24%.
Na prática, isso significa que mais empresas estão preocupadas em garantir que seus dados sejam limpos, consistentes, bem catalogados e rastreáveis. Também indica maior esforço para tornar modelos menos “caixas-pretas”, permitindo que gestores, auditores e reguladores compreendam os critérios de decisão dos sistemas de IA.
Confiança dos funcionários em queda
Enquanto as estruturas de governança avançam, a confiança declarada pelos próprios funcionários em relação ao seu uso de IA mostra um movimento inverso. De acordo com o estudo:
– o percentual de colaboradores que afirmam usar IA de forma segura e exclusivamente para fins de negócio caiu de 77% para 65%.
Esse resultado sugere que, na prática, muitos profissionais ainda se sentem inseguros sobre o que podem ou não fazer com as ferramentas de IA. Faltam políticas claras, treinamentos consistentes e diretrizes simples sobre o uso adequado, especialmente no que diz respeito a:
– inserção de informações confidenciais em ferramentas públicas;
– compartilhamento de dados de clientes ou propriedade intelectual;
– uso de IA para tarefas pessoais em equipamentos corporativos;
– limites éticos e legais no uso de conteúdos gerados por IA.
Sem uma cultura sólida de segurança e privacidade, o comportamento do usuário final torna-se um dos elos mais frágeis da cadeia.
“A IA está elevando o nível de exigência sobre gestão de dados”
Para Octavian Tanase, Chief Product Officer da Hitachi Vantara, a IA está mudando o patamar de exigência em relação à forma como as organizações tratam seus dados. Segundo ele, à medida que os algoritmos passam a ocupar um lugar central nas operações de negócio, governança, visibilidade e controle se tornam tão importantes quanto capacidade de processamento e velocidade de resposta.
As empresas que já vinham investindo em automação, padronização de processos e otimização da infraestrutura de dados conseguem avançar com mais tranquilidade. Já aquelas que carregam ambientes fragmentados, sistemas legados e baixa visibilidade sobre o ciclo de vida dos dados sentem de forma mais aguda o aumento da complexidade – e veem crescer a distância em relação às organizações mais maduras digitalmente.
Desafio ampliado no Brasil e na América Latina
No contexto brasileiro e latino-americano, esses desafios ganham contornos ainda mais sensíveis. A região passa por um processo acelerado de digitalização, marcado por:
– presença forte de sistemas legados;
– ambientes híbridos e heterogêneos (on-premises, nuvem pública e privada);
– desigualdade na maturidade digital entre setores e empresas;
– restrições orçamentárias em muitas organizações.
Esse cenário aumenta o risco de iniciativas de IA serem construídas sobre bases frágeis, com dados dispersos, duplicados, pouco integrados e mal catalogados. Sem um alicerce minimamente sólido de infraestrutura e governança, projetos de IA tendem a multiplicar complexidade, gerar custos não previstos e expor a organização a incidentes de segurança e de compliance.
Entusiasmo com IA x falta de base estrutural
De acordo com Pedro Diógenes, Senior Manager Pre Sales Consultant da Hitachi Vantara no Brasil, o entusiasmo em torno da inteligência artificial na América Latina é real e crescente, mas muitas empresas ainda tentam avançar sem resolver questões básicas de infraestrutura e organização de dados.
Ele ressalta que, conforme a IA passa a sustentar operações críticas – como análise de risco, atendimento a clientes, tomada de decisão em tempo real, automação de processos de backoffice e suporte a times de segurança -, torna-se evidente que arquiteturas convencionais e improvisadas já não dão conta da demanda.
Infraestruturas High End e resiliência como condição para escalar IA
Nesse contexto, ganham relevância as chamadas infraestruturas High End, projetadas para:
– alto desempenho computacional;
– resiliência contínua;
– disponibilidade ininterrupta de dados;
– capacidade de lidar com grandes volumes de informação e cargas intensivas de IA.
Segundo Diógenes, sem essa base robusta, a tendência é que projetos de IA, em vez de gerarem ganhos de negócio, acabem aumentando custos, alimentando riscos e produzindo frustrações. O caminho para o retorno financeiro passa por ambientes preparados para:
– escalar modelos com segurança;
– isolar cargas sensíveis;
– aplicar políticas de segmentação e controle de acesso;
– registrar logs detalhados para auditoria e rastreabilidade;
– suportar rapidamente novas demandas de armazenamento e processamento.
IA sem governança expõe ineficiências já existentes
Para Sheila Rohra, CEO da Hitachi Vantara, o estudo reforça uma mensagem fundamental: sem infraestrutura resiliente, automação e governança adequada, a IA deixa de ser motor de inovação e se transforma em um amplificador das ineficiências e fragilidades que já existiam na organização.
Segundo ela, a tecnologia só entrega seu potencial quando os dados por trás dos modelos são:
– confiáveis;
– bem governados;
– resilientes;
– acessíveis de forma segura.
O papel dos provedores de soluções, nesse cenário, é apoiar empresas na simplificação da gestão de seus ambientes, reduzindo a complexidade, automatizando tarefas repetitivas de administração e criando estratégias de dados que sustentem o crescimento de longo prazo.
O que as empresas podem fazer agora para reduzir riscos na IA
Para além dos números do relatório, alguns movimentos práticos já despontam como boas práticas para qualquer organização que queira usar IA de forma segura e eficiente:
1. Mapear e classificar dados críticos
Identificar onde estão os dados mais sensíveis (pessoais, financeiros, estratégicos, de propriedade intelectual) e classificá-los por nível de criticidade é etapa essencial antes de iniciar ou escalar projetos de IA.
2. Definir políticas claras de uso de IA
Estabelecer regras objetivas sobre o que é permitido ou proibido ao utilizar ferramentas de IA, incluindo a proteção de dados confidenciais e a restrição do uso de aplicações públicas com informações sensíveis.
3. Implementar controles de acesso e segregação de ambientes
Restringir o acesso a dados de treinamento e a modelos mais sensíveis apenas a perfis autorizados, além de separar ambientes de desenvolvimento, teste e produção para reduzir riscos.
4. Monitorar e auditar continuamente modelos e dados
Acompanhar o desempenho, os logs, as decisões automatizadas e o uso dos dados nos modelos de IA, com revisões periódicas para detectar desvios, vieses e possíveis incidentes de segurança.
5. Investir em treinamento e cultura de segurança
Capacitar funcionários e lideranças para o uso responsável da IA, reforçando conceitos de privacidade, confidencialidade, ética e responsabilidade no tratamento de dados.
6. Adotar frameworks de governança de IA e de dados
Estruturar processos, papéis e responsabilidades claros para o ciclo de vida de dados e modelos, desde a coleta e preparação até o descarte seguro e revisão da relevância.
O papel estratégico da liderança
Os resultados do relatório também evidenciam que decisões sobre IA e segurança de dados não podem ficar restritas apenas ao time de TI. É um tema estratégico, que exige envolvimento direto da alta liderança, conselhos e áreas de negócio.
Gestores precisam:
– alinhar o uso de IA à estratégia corporativa;
– avaliar o apetite a risco da organização;
– definir prioridades de investimento;
– criar mecanismos de supervisão e prestação de contas (accountability).
Sem essa visão integrada, surgem iniciativas isoladas, duplicação de esforços, aumento da superfície de ataque e descompasso entre expectativa e capacidade real de entrega da tecnologia.
IA como vantagem competitiva – desde que confiável e segura
O cenário traçado pelo Relatório Global sobre o Estado da Infraestrutura de Dados 2025 é paradoxal: ao mesmo tempo em que a IA se consolida como ferramenta essencial de competitividade, aumenta a percepção de risco e a complexidade de sua adoção.
A mensagem central que emerge do estudo é que o futuro da IA nas empresas não será definido apenas pela sofisticação dos algoritmos, mas, sobretudo, pela qualidade da infraestrutura, da governança de dados e da cultura de segurança construída em torno deles. Organizações que conseguirem combinar inovação com proteção, transparência e resiliência terão mais condições de transformar IA em vantagem competitiva sustentável – em vez de fonte de vulnerabilidades e crises.
