Com novas regulamentações em 2026, gestores precisam garantir que o uso de IA na empresa seja seguro, ético e legal. Conheça o framework AI TRiSM e aprenda a proteger dados sensíveis enquanto aproveita o poder da inteligência artificial.
Daniel Mousinho
Diretor & Especialista em Gestão · 11 de mar. de 2026
Existe uma realidade que a maioria dos gestores prefere ignorar: seus colaboradores já estão usando inteligência artificial no trabalho, todos os dias, com ou sem permissão. O analista financeiro que cola a planilha de faturamento inteira no ChatGPT para pedir um resumo executivo. A equipe de RH que envia currículos completos para uma ferramenta de IA fazer a triagem inicial. O gerente comercial que digita a lista de clientes inadimplentes para pedir sugestões de abordagem de cobrança. Tudo isso acontece agora, na sua empresa, provavelmente sem nenhuma política formal orientando esses usos.
O problema não é usar IA. O problema é usar IA sem consciência dos riscos envolvidos. Quando um funcionário insere dados de clientes em uma ferramenta de IA pública, esses dados podem ser armazenados, processados e até utilizados para treinar modelos futuros. Informações confidenciais de contratos, dados financeiros sigilosos e dados pessoais protegidos pela LGPD passam a circular em ambientes sobre os quais a empresa não tem nenhum controle. E quando o incidente acontece, a responsabilidade legal recai sobre a organização, não sobre o funcionário que agiu por conta própria.
Esse cenário gera o que especialistas chamam de shadow AI: o uso de ferramentas de inteligência artificial sem conhecimento ou aprovação da área de tecnologia e compliance da empresa. Da mesma forma que a shadow IT representou um desafio enorme na última década, a shadow AI está se tornando um dos maiores vetores de risco corporativo em 2026. E diferente de instalar um software não autorizado, os danos da shadow AI envolvem diretamente privacidade de dados, propriedade intelectual e conformidade regulatória.
AI TRiSM é a sigla para Artificial Intelligence Trust, Risk and Security Management. Trata-se de um framework criado pelo Gartner para ajudar organizações a governar o uso de inteligência artificial de forma estruturada, responsável e segura. O conceito surgiu porque a velocidade de adoção de IA nas empresas superou drasticamente a capacidade dessas mesmas empresas de criar controles adequados. Ferramentas foram contratadas, APIs foram integradas, funcionários começaram a usar IA generativa no dia a dia, mas quase ninguém parou para pensar nas implicações legais, éticas e operacionais desse movimento.
O framework se sustenta em três pilares. O primeiro, Trust, trata da confiabilidade e explicabilidade das decisões tomadas com auxílio de IA. Se um modelo de IA recomenda negar crédito a um cliente ou priorizar um fornecedor, a empresa precisa ser capaz de explicar por que aquela decisão foi tomada. O segundo pilar, Risk, aborda a gestão de riscos operacionais e legais. Isso inclui desde o risco de uma IA alucinar informações falsas que embasam uma decisão financeira até o risco regulatório de violar a LGPD ao processar dados pessoais sem base legal. O terceiro pilar, Security Management, foca na proteção dos dados que alimentam os modelos e na segurança dos próprios sistemas de IA contra manipulação, vazamento ou uso indevido.
A relevância do AI TRiSM em 2026 não é teórica. Com regulamentações de IA avançando no Brasil e no mundo, empresas que não possuem governança estruturada para o uso de inteligência artificial estão cada vez mais expostas. O Gartner estima que organizações que implementam práticas de AI TRiSM conseguem reduzir em até 50% os incidentes relacionados a IA. Não se trata de burocratizar a inovação, mas de criar as condições para que a inovação seja sustentável, auditável e juridicamente segura.
Muitos gestores ainda acreditam que a LGPD se aplica apenas a bancos de dados tradicionais, sistemas de CRM ou listas de e-mail marketing. Essa visão está perigosamente desatualizada. A Lei Geral de Proteção de Dados se aplica a qualquer operação de tratamento de dados pessoais, independentemente do meio utilizado. Quando você copia dados de clientes e cola em uma ferramenta de IA, está realizando tratamento de dados pessoais. Quando a IA processa esses dados e gera uma resposta, está realizando tratamento de dados pessoais. E para cada uma dessas operações, a empresa precisa ter uma base legal válida conforme o artigo 7 da LGPD.
Os riscos práticos são mais comuns do que parecem. Imagine um gestor comercial que exporta a base de clientes com nomes, CPFs, histórico de compras e valores de contratos, e cola tudo em uma IA generativa pedindo para segmentar os clientes por perfil de risco de inadimplência. Ou o departamento de RH que utiliza IA para analisar centenas de currículos, expondo dados pessoais como endereço, estado civil, deficiência e até etnia a uma ferramenta de terceiros sem contrato de processamento de dados. Em ambos os casos, a empresa está violando a LGPD e pode ser penalizada com multa de até 2% do faturamento bruto, limitada a R$ 50 milhões por infração.
Dados sensíveis recebem proteção ainda mais rígida pela legislação. Informações sobre saúde, origem racial, convicção religiosa, opinião política, filiação sindical e dados biométricos exigem consentimento específico e destacado do titular ou uma das hipóteses legais previstas no artigo 11 da LGPD. Usar IA para processar esse tipo de dado sem os cuidados adequados não é apenas arriscado, é ilegal. E com a Autoridade Nacional de Proteção de Dados cada vez mais ativa em fiscalizações e sanções, a janela para regularizar essas práticas está se fechando rapidamente.
O primeiro risco, e talvez o mais imediato, é o vazamento de dados confidenciais via prompts. Toda vez que alguém digita informações em uma ferramenta de IA, esses dados saem do perímetro de segurança da empresa. Planos estratégicos, projeções financeiras, dados de clientes, cláusulas contratuais sigilosas, tudo isso pode ser capturado, armazenado ou acessado por terceiros. Um caso emblemático foi o de uma grande empresa de tecnologia coreana cujos engenheiros vazaram código-fonte proprietário ao usar o ChatGPT para resolver problemas de programação.
O segundo risco envolve decisões enviesadas tomadas com base em respostas de IA. Modelos de inteligência artificial refletem os vieses presentes nos dados com os quais foram treinados. Se uma empresa usa IA para selecionar candidatos, aprovar crédito ou precificar serviços, existe o risco real de que essas decisões sejam discriminatórias sem que ninguém perceba. Uma rejeição sistemática de currículos de determinado perfil demográfico, por exemplo, pode gerar processos trabalhistas e danos reputacionais graves.
O terceiro risco diz respeito à propriedade intelectual. Quando a IA gera um texto, uma análise ou uma estratégia com base em informações proprietárias da empresa, surge a pergunta: quem é dono desse conteúdo? Se um colaborador usa IA para criar um relatório e esse relatório contém trechos gerados a partir de dados de concorrentes ou de fontes protegidas por direitos autorais, a empresa pode estar infringindo a propriedade intelectual de terceiros sem saber. O quarto risco é o da alucinação aceita como fato. IAs generativas inventam dados, citam leis inexistentes e fabricam estatísticas com total naturalidade. Quando um gestor toma uma decisão financeira ou jurídica baseado em uma resposta alucinada sem verificação, as consequências podem ser devastadoras. O quinto risco é a dependência operacional sem plano de contingência. Empresas que integram IA em processos críticos sem ter um plano B para quando a ferramenta falhar, mudar seus termos de uso ou simplesmente sair do ar ficam vulneráveis a paralisações que podem custar milhares de reais por hora.
Toda política de uso de IA eficaz começa pela definição clara de quais ferramentas são autorizadas na organização. Não basta dizer que IA pode ser usada. É necessário listar nominalmente quais plataformas foram avaliadas, aprovadas e contratadas pela empresa. ChatGPT, Claude, Gemini, Copilot, cada uma dessas ferramentas tem termos de uso diferentes, políticas de retenção de dados distintas e níveis de segurança variados. Sem essa definição, cada funcionário escolhe a ferramenta que achar mais conveniente, criando um ambiente caótico e ingovernável.
O segundo ponto essencial é classificar os dados que podem e que absolutamente não podem ser inseridos em ferramentas de IA. Crie uma matriz simples: dados públicos podem ser usados livremente; dados internos podem ser usados com versões enterprise que garantam isolamento; dados confidenciais e dados pessoais não podem ser inseridos em ferramentas de IA sem aprovação formal do responsável por compliance. O terceiro ponto é exigir revisão humana obrigatória para qualquer decisão que afete pessoas ou finanças. Se a IA sugere demitir alguém, negar um crédito ou alterar um preço, um ser humano qualificado precisa validar essa recomendação antes que ela se torne ação.
O quarto e o quinto pontos tratam de registro e capacitação. Toda interação relevante com IA deve ser documentada, especialmente aquelas que influenciam decisões de negócio. Isso cria uma trilha de auditoria essencial para compliance e para aprendizado organizacional. Paralelamente, a equipe precisa ser treinada sobre uso responsável de IA, incluindo os riscos específicos do seu setor e os limites definidos na política. O sexto ponto é designar um responsável interno pela governança de IA, alguém que centralize as decisões sobre novas ferramentas, avalie riscos e atualize as diretrizes. Por fim, o sétimo ponto: a política deve ser revisada trimestralmente. O cenário de IA muda a cada semana, e uma política criada em janeiro pode estar obsoleta em abril.
No dia a dia, a governança de IA se traduz em hábitos simples que, quando seguidos consistentemente, reduzem drasticamente os riscos. Nunca cole CPFs, CNPJs, números de conta bancária, senhas ou dados de cartão de crédito em qualquer ferramenta de IA. Parece óbvio, mas é surpreendente quantas pessoas fazem isso diariamente sem pensar duas vezes. Antes de colar qualquer informação em uma IA, pergunte-se: se esses dados vazassem publicamente amanhã, haveria consequências para a empresa ou para alguma pessoa? Se a resposta for sim, não cole.
Sempre que possível, utilize versões enterprise das ferramentas de IA, que oferecem isolamento de dados, garantia contratual de que as informações não serão usadas para treinar modelos e conformidade com regulamentações de privacidade. Verifique os termos de uso de cada ferramenta para entender por quanto tempo os dados dos prompts são retidos e se existe a possibilidade de exclusão sob demanda. Quando precisar usar IA para analisar conjuntos de dados com informações pessoais, anonimize os dados antes. Substitua nomes por códigos, remova CPFs e endereços, elimine qualquer informação que permita identificar uma pessoa específica.
Outra prática fundamental é nunca tratar outputs de IA como verdade absoluta. Toda resposta gerada por inteligência artificial deve ser verificada por um profissional qualificado antes de ser utilizada em relatórios, apresentações ou decisões. Isso vale especialmente para dados numéricos, referências legais e citações de fontes. Crie o hábito de perguntar à equipe: isso foi verificado ou foi direto da IA para o relatório final? Essa simples pergunta pode evitar erros que custariam muito mais para corrigir depois.
Implementar governança de IA não exige necessariamente investimentos milionários em tecnologia. Existem ferramentas e práticas acessíveis que qualquer empresa de médio porte pode adotar. Para organizações que utilizam o ecossistema Microsoft, o Microsoft Purview oferece recursos de governança de dados que ajudam a classificar, proteger e monitorar informações sensíveis, incluindo aquelas que transitam por ferramentas de IA. Políticas de prevenção contra perda de dados, conhecidas como DLP, podem ser configuradas para bloquear automaticamente o envio de dados classificados como confidenciais para ferramentas externas.
Do lado das ferramentas de IA em si, tanto o ChatGPT Enterprise quanto o Claude Teams oferecem ambientes com dados isolados, onde as informações inseridas nos prompts não são utilizadas para treinamento de modelos e ficam restritas ao ambiente da organização. Para empresas que desenvolvem soluções próprias com IA, manter logs de auditoria detalhados de todas as chamadas realizadas aos modelos é uma prática essencial. Esses registros permitem rastrear quem usou a IA, quando, com quais dados e para qual finalidade, criando a trilha de auditoria que reguladores e auditores esperam encontrar.
Na MVD, por exemplo, os agentes de IA são configurados com políticas de segurança embutidas desde a concepção. Os dados dos clientes não transitam por ambientes externos descontrolados. Cada interação é registrada, os prompts são construídos para rejeitar dados sensíveis inadequados e existe revisão humana obrigatória para recomendações que impactam decisões financeiras ou operacionais. Esse modelo demonstra que é possível oferecer o poder da IA sem abrir mão da governança. A tecnologia e as boas práticas existem. O que falta na maioria das empresas é a decisão de implementá-las.
Muitos gestores hesitam em implementar governança de IA porque enxergam o processo como burocracia desnecessária que vai frear a inovação. Essa percepção é compreensível, mas equivocada. O custo de criar uma política de uso de IA, treinar a equipe e configurar controles básicos é relativamente baixo: estamos falando de algumas dezenas de horas de trabalho distribuídas ao longo de semanas, mais o investimento em versões enterprise de ferramentas que muitas vezes já possuem planos corporativos acessíveis. Compare isso com o custo de um incidente de vazamento de dados. No Brasil, o custo médio de uma violação de dados gira em torno de R$ 6 milhões quando se somam multas da LGPD, custos de investigação, remediação, notificação aos titulares afetados e danos à reputação.
E reputação, uma vez perdida, é extraordinariamente cara para reconstruir. Um único incidente envolvendo uso inadequado de IA pode destruir anos de construção de confiança com clientes, parceiros e investidores. Imagine a manchete: empresa vaza dados de milhares de clientes por uso descontrolado de inteligência artificial. Além do impacto financeiro direto, esse tipo de exposição afasta novos negócios, dificulta contratações e pode até inviabilizar participações em licitações e processos que exijam certificações de segurança da informação.
A governança de IA não é o freio da inovação. É o cinto de segurança. Você não deixa de dirigir porque usa cinto, você dirige com mais confiança. Empresas que possuem governança estruturada para uso de IA transmitem mais confiança a clientes que lhes confiam dados sensíveis, a parceiros que compartilham informações estratégicas e a reguladores que fiscalizam o mercado. Em um cenário onde a IA será cada vez mais onipresente nas operações de negócio, a governança não é um diferencial competitivo, é um requisito de sobrevivência. O momento de criar sua política de uso de IA é agora, antes que um incidente transforme uma escolha estratégica em uma reação de emergência.
Explore nossos artigos, ferramentas e serviços para transformar a produtividade da sua empresa com inteligência artificial.