Cloud security resource

Chatgpt e dados sigilosos: por que só proibir funcionários não resolve o risco

Funcionários alimentam o ChatGPT com dados sigilosos – e só proibir não vai dar conta do problema

O número é contundente: uma empresa típica registra, em média, 223 incidentes por mês envolvendo violação de políticas de dados ligados ao uso de inteligência artificial generativa. O dado vem do mais recente Cloud and Threat Report da Netskope, divulgado em janeiro com base na telemetria de milhões de usuários corporativos no mundo todo.

O aspecto mais alarmante, porém, não é apenas o volume, mas a curva de crescimento: em um ano, esses incidentes mais que dobraram. No Brasil, onde a adoção de IA em ambientes corporativos saltou de 20% para 51% em apenas doze meses, o fenômeno ganhou nome, rosto e impacto próprios: shadow AI – o uso de ferramentas de inteligência artificial fora do controle, visibilidade e governança da área de TI.

Como nasce a shadow AI dentro da empresa

O roteiro se repete em praticamente qualquer organização. Um colaborador precisa elaborar um relatório complexo, revisar um contrato, depurar um trecho de código ou transformar páginas de atas de reunião em um resumo executivo. Ele se depara com sistemas internos lentos, sem recursos inteligentes, com interfaces ruins e pouca automação.

A poucos cliques de distância, no mesmo navegador, está o ChatGPT – ou qualquer outra ferramenta generativa disponível publicamente. A resposta chega em segundos, com um nível de qualidade que, para muitos, é mais do que suficiente. A tentação é grande: o usuário copia o texto, sobe o documento, cola o código, adiciona dados de clientes e descreve o contexto no prompt.

Nesse exato momento, um conjunto de informações que deveria permanecer dentro do perímetro corporativo cruza a fronteira e passa a trafegar em um ambiente sobre o qual a empresa não tem controle efetivo. A tarefa é cumprida, o usuário fica satisfeito, a produtividade aparente aumenta – e, em paralelo, ocorre um incidente de segurança que, muito provavelmente, jamais será oficialmente registrado.

O que, de fato, está sendo enviado aos modelos de IA

Um estudo da Harmonic Security, publicado no início do ano, destrinchou com mais precisão o conteúdo desses prompts. De acordo com a pesquisa, entre as informações inseridas em ferramentas de IA generativa destacam-se:

– dados jurídicos e financeiros: 30,8%
– informações de clientes: 27,8%
– dados pessoais de titulares: 14,9%
– registros de funcionários: 14,3%
– código-fonte sensível: 10,1%

Do total de dados analisados, 79% foram enviados especificamente ao ChatGPT, sendo que 21% foram inseridos na versão gratuita do serviço – justamente aquela em que, salvo ajustes específicos, os prompts podem ser retidos e utilizados para treinamento do modelo. Isso significa que informações críticas podem acabar, direta ou indiretamente, contribuindo para aprimorar um sistema que não pertence à organização, sem qualquer garantia de descarte, segregação ou anonimização adequada.

Funcionários já adotaram IA – com ou sem aval da TI

Outro indicador importante vem do Microsoft/LinkedIn Work Trend Index, que ouviu mais de 31 mil profissionais em 31 países, incluindo o Brasil. Segundo o levantamento, 75% dos trabalhadores do conhecimento já utilizam ferramentas de IA generativa em seu dia a dia profissional. E, entre esses, 78% levam suas próprias soluções, sem aprovação ou supervisão formal da área de TI.

O mesmo estudo mostra ainda que 68% dos profissionais se dizem sobrecarregados pelo volume de tarefas. Esse grau de pressão é um terreno fértil para atalhos: quando a carga de trabalho é alta e as metas são agressivas, o apelo de um “assistente inteligente” que resolve em minutos o que levaria horas torna-se quase irresistível. Nesse contexto, o risco de exposição de dados sensíveis deixa de ser um conceito abstrato para se tornar uma consequência previsível de escolhas cotidianas.

LGPD, responsabilidade e o risco regulatório para as empresas

Para executivos brasileiros, enxergar esse movimento apenas como um problema de TI é um equívoco perigoso. Há um peso regulatório significativo em cada prompt que contém dados pessoais ou informações sigilosas. Quando um funcionário insere dados de clientes em uma ferramenta pública de IA, a empresa pode estar, ao mesmo tempo:

– compartilhando esses dados com um terceiro não autorizado;
– realizando uma potencial transferência internacional de dados;
– descumprindo o princípio de segurança previsto no Art. 46 da Lei Geral de Proteção de Dados.

De acordo com o Art. 42 da LGPD, a responsabilidade recai sobre o controlador – na prática, a própria empresa. O fato de ter sido iniciativa individual do empregado não elimina o dever de proteger dados pessoais nem afasta a possibilidade de sanções.

A Autoridade Nacional de Proteção de Dados, elevada em 2025 ao status de autarquia especial com poderes ampliados de fiscalização, já deu sinais claros de que pretende atuar de forma mais firme nesse campo. A ANPD bloqueou preventivamente o uso de dados pessoais para treinamento de sistemas de IA por uma grande plataforma global e conduz, no Brasil, investigação sobre a responsabilidade de outra companhia internacional em um vazamento ligado ao uso de ferramenta de inteligência artificial.

As sanções administrativas previstas na LGPD podem chegar a 2% do faturamento da empresa no Brasil, limitadas a R$ 50 milhões por infração, por incidente. Em casos de uso disseminado e descontrolado de IA, múltiplos incidentes podem ocorrer sem sequer serem percebidos, o que amplia o potencial de dano financeiro, reputacional e jurídico.

O custo financeiro da shadow AI

Os impactos não se restringem à esfera regulatória. O IBM Cost of Data Breach Report 2025, que analisou 600 organizações globais, aponta que violações originadas em shadow AI custam, em média, US$ 670 mil a mais do que outros tipos de incidentes de segurança: US$ 4,63 milhões contra US$ 3,96 milhões.

Um dado particularmente revelador do estudo: 97% das organizações que sofreram incidentes envolvendo modelos ou aplicações de IA relataram ausência de controles de acesso adequados. Em outras palavras, na imensa maioria dos casos, a empresa sequer havia estabelecido políticas claras de quem pode acessar o quê, em quais circunstâncias e com quais limites de uso. O ambiente perfeito para o improviso e para a exposição inadvertida de dados sigilosos.

Por que proibir não funciona – e pode piorar o cenário

Diante desse cenário, a reação instintiva de muitos líderes de TI e segurança é recorrer à proibição pura e simples. Bloqueiam-se domínios de serviços de IA, reforçam-se políticas de uso aceitável, ameaçam-se punições disciplinares a quem insistir no uso não autorizado dessas ferramentas.

Só que os dados sugerem que essa abordagem é, na melhor das hipóteses, insuficiente – e, na pior, contraproducente. O Cisco 2024 Data Privacy Benchmark Study, que ouviu 2.600 profissionais de segurança e privacidade em 12 países, revelou que 27% das organizações optaram por banir completamente o uso de ferramentas de IA generativa. Mesmo assim, quase metade dos funcionários dessas empresas continua utilizando tais recursos sem conhecimento ou aprovação da área de TI, por meio de dispositivos pessoais, redes móveis e navegadores alternativos.

Quando a única resposta da empresa é proibir, ela não elimina a demanda por produtividade, criatividade e agilidade que impulsiona o uso da IA. Apenas empurra esse uso para a clandestinidade, tornando-o ainda mais invisível, menos rastreável e mais perigoso. Sem orientação, sem canais oficiais e sem treinamento, o colaborador continua recorrendo a qualquer ferramenta que encontra – agora com ainda menos cuidado, pois precisa “driblar” os bloqueios corporativos.

Do “não pode” ao “pode assim”: a necessidade de uma estratégia de IA responsável

O problema central não é o uso de IA em si, mas a ausência de governança. Ao invés de tentar impedir um movimento que já se consolidou, as empresas precisam redesenhar sua estratégia e migrar do discurso do “não pode” para o “pode, desde que…”. Isso passa por, pelo menos, cinco frentes principais:

1. Definir uma política clara de uso de IA
Não basta uma cláusula genérica em um código de conduta. É necessário um documento específico que deixe claro: quais ferramentas podem ser usadas, para quais finalidades, com que tipo de dado, em que contexto, por quais perfis de usuário e sob quais salvaguardas.

2. Criar canais oficiais e ferramentas corporativas
Se o colaborador recorre ao ChatGPT público porque não há alternativa, a organização precisa oferecer opções corporativas seguras: instâncias privadas, modelos hospedados em ambientes controlados, soluções de parceiros que garantam segregação de dados e logs de auditoria. Sem isso, o uso clandestino tende a crescer.

3. Classificar dados e treinar equipes
É fundamental que as pessoas entendam a diferença entre um texto público de marketing e um contrato confidencial, entre um FAQ institucional e uma base de clientes com dados pessoais. Políticas de classificação de informação precisam ser simples e didáticas, acompanhadas de treinamentos práticos mostrando, na tela, o que pode e o que não pode ser enviado a uma IA.

4. Adequar contratos e avaliar fornecedores de IA
Sempre que uma ferramenta de IA externa for utilizada, a empresa deve avaliar com rigor os termos de uso, políticas de privacidade, localização de data centers, mecanismos de exclusão de dados e opções de desativar o uso de prompts para treinamento. É também o momento de revisar contratos, incluir cláusulas de proteção de dados e exigir transparência sobre o ciclo de vida das informações inseridas.

5. Monitorar, auditar e ajustar continuamente
Shadow AI não é um problema estático. Novas ferramentas surgem o tempo todo e os modelos evoluem rapidamente. A área de segurança precisa de mecanismos de descoberta e monitoramento de tráfego para identificar quais aplicações de IA estão sendo acessadas, por quem, em que volume e com que tipo de dado. A política de uso deve ser revisitada à luz desses insights.

O papel da liderança: patrocínio, exemplo e incentivo ao uso seguro

Nenhuma política prospera se ficar restrita aos e-mails da área de TI. Para que uma estratégia de IA responsável funcione, a alta liderança precisa assumir o tema como prioridade de negócio, não apenas como tópico técnico. Isso envolve:

– comunicar de forma clara que a IA é bem-vinda, desde que usada com responsabilidade;
– demonstrar, com exemplos concretos, como a tecnologia pode gerar ganhos reais em áreas como vendas, jurídico, RH e operações;
– reconhecer e valorizar projetos internos que implementem IA de forma segura, em vez de apenas reprimir iniciativas informais.

Quando executivos utilizam ferramentas aprovadas, seguem as orientações de segurança e falam abertamente sobre os limites de uso, dão o tom para o restante da organização. A mensagem deixa de ser “IA é proibida” e passa a ser “IA é estratégica, mas precisamos usá-la com cuidado, porque os riscos são reais”.

Educação em segurança: da cartilha ao treinamento em cenários reais

Outro ponto crítico é a forma como se treina o colaborador. Campanhas genéricas de conscientização, recheadas de jargões jurídicos ou técnicos, têm pouco impacto prático no comportamento diário. É necessário aproximar o discurso da realidade:

– simular situações em que um funcionário tenta usar IA em um contrato real, em um código sensível ou em uma base de clientes;
– mostrar o que acontece com o dado a partir do momento em que ele é inserido no prompt;
– explicar, em linguagem simples, o que é LGPD, transferência internacional, princípio de segurança e quais seriam as consequências de um incidente.

Treinamentos baseados em exemplos reais da própria empresa tendem a gerar muito mais engajamento e mudança de atitude do que apresentações abstratas. Além disso, é importante reforçar canais de dúvida: permitir que colaboradores perguntem, anonimamente se necessário, se determinado uso é aceitável ou não.

Segurança desde o design: IA integrada à arquitetura de dados

Para reduzir a tentação de recorrer a ferramentas públicas, a própria infraestrutura da empresa precisa se tornar mais “inteligente”. Isso significa incorporar IA, de forma controlada, aos sistemas internos: mecanismos de busca avançados, assistentes para geração de relatórios, auxílio à redação de documentos, apoio a times de desenvolvimento.

Quando o colaborador encontra dentro de casa uma experiência comparável – ou suficiente para resolver suas demandas do dia a dia – diminui significativamente a necessidade de enviar dados sensíveis a serviços externos. Ao mesmo tempo, esses recursos internos podem ser integrados a políticas de identidade, autenticação multifator, logs de uso e trilhas de auditoria, aumentando a governança sobre quem fez o quê, com qual dado e para qual finalidade.

O caminho à frente: aceitar o inevitável e governar o incontrolável

Ferramentas como o ChatGPT não vão desaparecer do cotidiano corporativo. Pelo contrário: a tendência é que se tornem ainda mais presentes, integradas a navegadores, sistemas operacionais, suítes de escritório e plataformas de colaboração. Tentar “blindar” a organização por meio de bloqueios indiscriminados é lutar contra uma maré tecnológica irreversível.

O desafio verdadeiro está em reconhecer que o uso de IA já é uma realidade consolidada e mover a discussão do terreno da proibição para o da governança. Isso exige políticas claras, alternativas seguras, treinamento contínuo, monitoramento inteligente e, sobretudo, uma mudança de mentalidade: deixar de tratar o funcionário como inimigo potencial e passar a enxergá-lo como parte da solução.

Enquanto a resposta permanecer limitada ao “não pode”, a shadow AI continuará florescendo nos bastidores, alimentada por dados sigilosos que vazam, silenciosamente, em milhões de prompts. A empresa que compreender isso antes das demais terá uma vantagem competitiva crucial: conseguirá extrair valor da inteligência artificial sem transformar cada interação em uma roleta russa regulatória, financeira e reputacional.