Cloud security resource

Segurança de dados: a maior barreira para adoção de Ia nas empresas

Segurança de dados se consolida como maior barreira para adoção de IA nas empresas

A inteligência artificial já deixou de ser promessa e passou a integrar a estratégia de negócios de grandes organizações em todo o mundo. Porém, à medida que a tecnologia avança, cresce também a percepção de risco: a proteção das informações virou o principal ponto de atenção das lideranças.

De acordo com o Relatório Global sobre o Estado da Infraestrutura de Dados 2025, a segurança de dados é hoje o maior desafio para a implementação de soluções de IA. O estudo, que entrevistou mais de 1.200 executivos C-level e líderes de TI de companhias com mais de mil colaboradores, mostra que 56% dos tomadores de decisão veem a segurança como o obstáculo número um para adoção de IA – um salto de 19 pontos percentuais em relação a 2024.

Riscos crescentes e queda na confiança interna

A preocupação não se limita ao tradicional medo de ataques externos. O relatório aponta aumento relevante no temor em relação a diferentes tipos de risco ligados ao uso de IA:
– risco de violação interna de sistemas de IA subiu de 31% para 41%;
– preocupação com ataques externos que utilizam IA passou de 41% para 43%;
– receio quanto ao cumprimento de exigências regulatórias aumentou de 31% para 37%.

Ao mesmo tempo, a confiança dos próprios funcionários no uso responsável da tecnologia recuou. A porcentagem de colaboradores que afirmam utilizar IA de forma segura e exclusivamente para fins de negócio caiu de 77% para 65%. Esse dado evidencia um descompasso entre a velocidade de adoção da tecnologia e a maturidade dos processos de governança, treinamento e controle.

IA generativa: resultados abaixo da euforia inicial

Ferramentas de IA generativa, como modelos de linguagem e assistentes corporativos, continuam sendo vistas como estratégicas, mas já não despertam o mesmo entusiasmo do início. As taxas de sucesso percebido em iniciativas com IA generativa caíram de 95% para 81%.

Na prática, isso indica que muitas organizações descobriram, ao longo dos primeiros projetos, limitações ligadas à qualidade dos dados, à falta de integração com sistemas legados, à ausência de políticas claras de uso e à dificuldade de explicar as decisões tomadas pelos modelos. A promessa de ganhos rápidos esbarra em problemas estruturais que, agora, ficam mais visíveis.

Reação das empresas: mais governança e foco na qualidade dos dados

Por outro lado, a resposta do mercado a esses desafios começa a aparecer nos investimentos. O levantamento mostra um movimento consistente de fortalecimento da governança de dados e da disciplina na preparação das informações usadas pela IA:
– a proporção de empresas que estão aprimorando ativamente a qualidade dos dados para treinamento de modelos subiu de 39% para 49%;
– a adoção de frameworks formais de governança avançou de 32% para 45%;
– auditorias regulares de desempenho dos modelos passaram de 36% para 44%;
– o percentual de organizações sem qualquer estratégia de explicabilidade (capacidade de justificar decisões da IA) caiu de 42% para 24%.

Esse conjunto de indicadores mostra que a discussão saiu do campo puramente tecnológico e passou a incorporar compliance, risco, privacidade, ética e transparência. A IA deixa de ser apenas um projeto de inovação e se torna um tema de gestão corporativa em sentido amplo.

Desafios específicos de Brasil e América Latina

Na América Latina, e especialmente no Brasil, o cenário apresenta particularidades que tornam o problema ainda mais delicado. A região vive um processo acelerado de digitalização, mas muitas empresas operam sobre bases tecnológicas antigas, fragmentadas e heterogêneas.

Pedro Diógenes, Senior Manager da Hitachi Vantara no Brasil, ressalta que um erro comum é tentar avançar em IA sem antes resolver questões fundamentais de infraestrutura. Em ambientes com sistemas legados, múltiplas bases de dados pouco integradas e processos de segurança inconsistentes, o risco de vazamento, uso indevido ou distorção de dados cresce exponencialmente.

Nesses contextos, arquiteturas robustas – que combinem armazenamento seguro, camadas de proteção de dados, mecanismos de observabilidade e automação de políticas – deixam de ser “diferencial” e passam a ser pré-requisito para que os projetos de IA ganhem escala, se mantenham seguros e gerem retorno financeiro real.

Infraestrutura como alicerce da IA confiável

Octavian Tanase, Chief Product Officer da Hitachi Vantara, aponta que a IA está elevando o nível de exigência sobre a forma como as organizações governam e gerenciam seus dados. Se antes erros de cadastro, inconsistências em bancos de dados ou processos manuais mal documentados eram apenas um problema operacional, agora podem se transformar em vieses nos modelos, respostas equivocadas e riscos reputacionais e regulatórios.

Sheila Rohra, CEO da companhia, reforça que o estudo indica um ponto de inflexão importante: sem infraestrutura resiliente, automação e governança, a IA deixa de funcionar como motor de inovação e passa a expor ineficiências que já existiam. Em outras palavras, projetos de IA mal estruturados atuam como uma lente de aumento para problemas históricos de TI e de gestão de dados.

O que as empresas precisam fazer na prática

Para reduzir o abismo entre ambição e execução, algumas ações tornam-se prioritárias:

1. Mapeamento e classificação de dados
Saber onde estão as informações críticas, quem acessa o quê e com qual finalidade é a base para qualquer estratégia de IA segura. Sem esse inventário, é impossível definir políticas consistentes de proteção, anonimização, retenção e uso responsável.

2. Fortalecimento da governança e dos controles de acesso
Definir papéis claros (quem é dono do dado, quem pode rotulá-lo, quem pode utilizá-lo para treinamento de modelos) e aplicar princípios de privilégio mínimo ajudam a reduzir o risco de vazamentos internos e uso indevido de informações sensíveis.

3. Integração entre times de segurança, dados e negócios
IA não pode ser tratada apenas como um “projeto de TI”. Envolver segurança da informação, jurídico, compliance e áreas de negócio desde o início permite antecipar riscos regulatórios, alinhar objetivos e evitar retrabalho.

4. Políticas claras de uso de IA pelos colaboradores
A queda na confiança dos funcionários mostra a urgência de diretrizes explícitas: o que pode ser inserido em ferramentas de IA, quais dados são proibidos, como registrar e auditar interações, que tipos de automações exigem revisão humana obrigatória.

5. Monitoramento contínuo e auditoria dos modelos
Não basta colocar a IA em produção; é essencial acompanhar performance, vieses, segurança e aderência regulatória de maneira recorrente. Auditorias periódicas ajudam a detectar desvios antes que se tornem incidentes graves.

Segurança de dados como vantagem competitiva

Embora o discurso em torno de segurança de dados costume ser associado a custo, atraso ou “freio” à inovação, a realidade competitiva começa a alterar essa percepção. Empresas que conseguem demonstrar controle rigoroso sobre o ciclo de vida de seus dados, transparência nos modelos e aderência a normas tendem a conquistar mais confiança de clientes, parceiros e reguladores.

No médio prazo, a capacidade de provar que a IA é usada de forma segura e ética tende a se tornar um diferencial de mercado tão relevante quanto preço e qualidade do produto. Em setores regulados, como financeiro, saúde e governo, isso pode inclusive ser um requisito para participar de determinadas cadeias de valor.

O papel da cultura organizacional

Tecnologia e infraestrutura são fundamentais, mas não suficientes. A mudança de cultura é um dos componentes mais críticos para que a segurança de dados acompanhe o avanço da IA. Isso envolve:
– treinar equipes para reconhecer riscos de privacidade e segurança no uso cotidiano de ferramentas de IA;
– incentivar uma postura de questionamento em relação aos resultados gerados pelos modelos;
– valorizar a transparência e a prestação de contas na tomada de decisão automatizada.

Quando a organização entende que a responsabilidade pelo uso seguro de IA é compartilhada – e não exclusiva da área de TI – a eficácia das políticas de segurança tende a aumentar significativamente.

IA responsável como próxima fase da transformação digital

A combinação entre pressão competitiva, amadurecimento regulatório e aumento da exposição a ataques torna inevitável a evolução para um modelo de “IA responsável”. Isso significa incorporar, desde a concepção do projeto, princípios de segurança, privacidade, ética, governança de dados e explicabilidade.

O relatório deixa claro: a questão já não é se as empresas vão adotar IA, mas em que condições farão isso. As organizações que encararem a segurança de dados não como obstáculo, mas como pilar estratégico, estarão melhor posicionadas para extrair valor da tecnologia de forma sustentável, mitigando riscos e construindo confiança ao longo do caminho.