WickoWicko
Casos de Uso
Gestão de Ativos & FundosVendas & Propostas ComerciaisSegurança da InformaçãoJurídico & ComplianceConsultoria & ServiçosGoverno & Licitações
Franky AIFuncionalidadesIntegraçõesComo FuncionaPlanosBlog
Entrar
WickoWicko
Casos de Uso
Gestão de Ativos & FundosVendas & Propostas ComerciaisSegurança da InformaçãoJurídico & ComplianceConsultoria & ServiçosGoverno & Licitações
Franky AIFuncionalidadesIntegraçõesComo FuncionaPlanosBlog
Entrar

Neste artigo

  • O paradoxo da IA generativa no trabalho corporativo
  • Por que Samsung proibiu (e por que isso virou case study)
  • Os 3 riscos reais (sem alarmismo)
  • Risco 1: Vazamento de dados via histórico e treinamento
  • Risco 2: Alucinação em decisões importantes
  • Risco 3: LGPD, sigilo profissional e regulação setorial
  • Por que proibir não funciona
  • 1. Shadow IT é incontrolável
  • 2. Compliance theater
  • 3. Custo de oportunidade
  • O framework: matriz de decisão por tipo de dado e tipo de tarefa
  • O que liberar (e por quê)
  • O que proibir (e como ter uma alternativa)
  • Política exemplo (template editável)
  • Como implementar na prática (4 passos)
  • Passo 1: Educar (com casos reais)
  • Passo 2: Detectar (DLP em outbound)
  • Passo 3: Substituir (oferecer alternativa)
  • Passo 4: Auditar (logs e revisão periódica)
  • Resumo
WickoWicko
Casos de Uso
Gestão de Ativos & FundosVendas & Propostas ComerciaisSegurança da InformaçãoJurídico & ComplianceConsultoria & ServiçosGoverno & Licitações
Franky AIFuncionalidadesIntegraçõesComo FuncionaPlanosBlog
Entrar
Voltar ao blog
IA e Compliance07 de abril de 202615 min de leitura

ChatGPT no trabalho: o que sua empresa deveria proibir (e o que liberar)

Samsung, Apple, JPMorgan e Goldman Sachs proibiram ChatGPT em 2023. A maioria dos funcionários usa mesmo assim. Um framework prático para CISOs e times de compliance que precisam definir política de IA generativa sem destruir produtividade.

D

Daniel

Co-Founder & CTO

CompartilharLinkedInX

Neste artigo

  • O paradoxo da IA generativa no trabalho corporativo
  • Por que Samsung proibiu (e por que isso virou case study)
  • Os 3 riscos reais (sem alarmismo)
  • Risco 1: Vazamento de dados via histórico e treinamento
  • Risco 2: Alucinação em decisões importantes
  • Risco 3: LGPD, sigilo profissional e regulação setorial
  • Por que proibir não funciona
  • 1. Shadow IT é incontrolável
  • 2. Compliance theater
  • 3. Custo de oportunidade
  • O framework: matriz de decisão por tipo de dado e tipo de tarefa
  • O que liberar (e por quê)
  • O que proibir (e como ter uma alternativa)
  • Política exemplo (template editável)
  • Como implementar na prática (4 passos)
  • Passo 1: Educar (com casos reais)
  • Passo 2: Detectar (DLP em outbound)
  • Passo 3: Substituir (oferecer alternativa)
  • Passo 4: Auditar (logs e revisão periódica)
  • Resumo

Em 30 segundos

  • Proibir não funciona. 70% dos funcionários usam IA generativa de qualquer jeito, mesmo onde é proibido. Banir cria *shadow IT* e zero auditoria.
  • Liberar tudo também não funciona. Samsung perdeu código-fonte em 2023, Air Canada foi processada por uma promessa inventada pelo chatbot, e a LGPD trata transferência de dados pessoais a IA externa como tratamento de dado.
  • A resposta é uma matriz: proibir uso de dados confidenciais em ferramentas públicas, liberar uso geral com dados não-sensíveis, oferecer alternativas privadas (com RAG e aprovação) pra casos sensíveis.
  • Este post traz o framework completo + um template de política pronto para adaptar.

O paradoxo da IA generativa no trabalho corporativo

Em 2026, a situação típica de uma empresa brasileira média é mais ou menos essa:

  • 70% dos funcionários já usam ChatGPT, Claude, Gemini ou Copilot pra tarefas de trabalho (Microsoft Work Trend Index 2024)
  • 40% dessas empresas têm política formal proibindo ou restringindo IA generativa
  • 80% dos funcionários que usam não contam pro chefe que estão usando
  • 10% já colaram dados confidenciais (código-fonte, contratos, planilhas internas) em chats públicos

Faça as contas. Se você é CISO, tem alta probabilidade de ter dados da sua empresa no histórico de prompts de algum LLM público, sem rastreamento, sem aprovação, sem proteção. Isso é shadow IT em sua forma mais pura, e é completamente compreensível, porque ChatGPT realmente economiza horas por semana pra quem usa bem.

Cachorro de chapéu sentado em uma sala pegando fogo e afirmando que está tudo bemReação
O CISO médio lendo o relatório trimestral de uso de IA no endpoint corporativo.

Esse post é pra quem precisa resolver esse paradoxo: como capturar o ganho de produtividade sem assumir o risco.

Por que Samsung proibiu (e por que isso virou case study)

Em abril de 2023, três incidentes separados na Samsung em três semanas:

  1. Engenheiro 1 colou código-fonte confidencial de um software interno no ChatGPT pedindo ajuda pra debugar.
  2. Engenheiro 2 colou notas de uma reunião interna sigilosa pedindo pra resumir.
  3. Engenheiro 3 colou um documento técnico de hardware pedindo otimização.

Em todos os três casos, os dados foram incluídos no histórico do ChatGPT e, pelos termos de serviço da OpenAI da época, passaram a poder ser usados como dados de treinamento. Em tese, alguém perguntando ao ChatGPT sobre aquele tópico específico poderia receber uma resposta contendo trechos daqueles dados.

A Samsung, em maio de 2023, baniu o uso de qualquer IA generativa pública no equipamento corporativo e proibiu funcionários de inserir dados da empresa em ChatGPT, Bard, Bing Chat ou similares. A pena: até demissão.

Logo depois vieram:

EmpresaQuandoO que proibiu
JPMorgan ChaseFev 2023ChatGPT em todos os dispositivos corporativos
Goldman SachsFev 2023ChatGPT no ambiente de trabalho
CitigroupFev 2023ChatGPT no ambiente de trabalho
Bank of AmericaMar 2023Acesso bloqueado
AppleMai 2023ChatGPT, Copilot e Bard (enquanto desenvolve concorrente interno)
VerizonFev 2023Acesso bloqueado
AmazonJan 2023Avisou funcionários a não compartilhar info confidencial
Northrop Grumman2023Banido por questões de defesa
Accenture2023Banido pra clientes específicos

Esses bans são citados em todos os boards de risco como precedente. E nem todos foram revertidos, alguns foram substituídos por versões enterprise (Azure OpenAI, Copilot Enterprise), mas o ChatGPT consumer continua bloqueado em muita empresa Tier 1.

Os 3 riscos reais (sem alarmismo)

Vamos separar risco real de paranoia. Tem três riscos legítimos quando funcionários usam IA generativa pública com dados de trabalho. Eles não são iguais, vale entender cada um.

Risco 1: Vazamento de dados via histórico e treinamento

Como funciona: você cola um documento no ChatGPT. Esse texto vai pro servidor da OpenAI. Dependendo do plano:

  • ChatGPT Free e Plus (consumer): por padrão, conversas podem ser usadas pra treinar modelos. Você pode desligar isso nas configurações, mas a maioria dos funcionários não desliga.
  • ChatGPT Team e Enterprise: a OpenAI promete que não treina modelos com seus dados. É contratual.
  • API direta da OpenAI: também não treina por padrão (desde março de 2023).

A consequência prática do treinamento: se a OpenAI usa seus dados pra treinar, em tese aquele conteúdo pode reaparecer em respostas a outros usuários, semanas ou meses depois. Já houve casos documentados de "leak por LLM", conteúdo confidencial reaparecendo em prompts de terceiros.

Severidade real: alta pra dados estratégicos (M&A, preços, código-fonte, contratos). Baixa pra texto genérico (políticas públicas, comunicações de marketing).

Risco 2: Alucinação em decisões importantes

Como funciona: o LLM gera resposta plausível mas factualmente errada. Funcionário usa pra decidir/agir, sem checar a fonte. Empresa toma decisão com base em informação inventada.

Exemplos reais:

  • Caso Mata vs Avianca (2023): advogado submeteu petição com 6 jurisprudências fabricadas pelo ChatGPT. Multado em US$ 5.000.
  • Caso Air Canada (2024): chatbot inventou política de reembolso. Empresa foi obrigada por tribunal canadense a honrar a política inventada.
  • Caso Iowa school district (2023): distrito escolar usou ChatGPT pra escolher livros a remover por "conteúdo inapropriado". O LLM recomendou banir livros que não tinham nada de inapropriado, e listou trechos inventados como justificativa.

Severidade real: alta. E pior, é risco que escala, porque quem usa LLM pra "ganhar tempo" tipicamente não checa a fonte. Esse é o ponto.

Nota

Sobre por que LLMs alucinam e o que fazer, escrevi um post separado: Por que LLMs alucinam e como construir IA empresarial confiável.

Risco 3: LGPD, sigilo profissional e regulação setorial

Como funciona: a Lei Geral de Proteção de Dados (LGPD) trata o envio de dados pessoais a um serviço externo como tratamento de dados pessoais. Isso significa que:

  • Você precisa ter base legal pra fazer
  • Você precisa ter contrato de operador com o terceiro (a OpenAI, Anthropic, etc.) ou enquadrar como caso de uso permitido
  • Você precisa garantir transferência internacional apropriada (a maioria desses serviços roda em servidores nos EUA)
  • O titular dos dados tem direito de saber e contestar

Funcionário colando dados de cliente, paciente, candidato, fornecedor ou colaborador no ChatGPT pessoal está, do ponto de vista da LGPD, fazendo tratamento de dados pessoais sem base legal e sem garantias contratuais. Em fiscalização da ANPD, isso é multa.

Setores regulados têm camada extra:

  • Bancos e instituições financeiras: BACEN exige sigilo bancário (Lei Complementar 105/2001). Dados de cliente em LLM público é descumprimento de sigilo.
  • Saúde: CFM e LGPD tratam dado de paciente como dado sensível. Tratamento exige consentimento específico.
  • Jurídico: OAB tem regras sobre sigilo profissional. Dado de cliente em LLM público é violação de sigilo.
  • Mercado de capitais: CVM trata material non-public information com regras estritas. Vazamento via LLM pode configurar uso indevido.

Severidade real: catastrófica em setores regulados. Alta em qualquer empresa que trate dado pessoal.

Por que proibir não funciona

Proibir é a resposta intuitiva. Também é a resposta que falha. Três motivos:

1. Shadow IT é incontrolável

Funcionário acessa ChatGPT do celular pessoal, em rede 4G, fora do alcance do firewall corporativo. O ban formal só desloca o uso, não elimina. Estudos da Cyberhaven (2023) e do Microsoft Work Trend Index mostram que onde a empresa proíbe, o uso continua, só sem rastreabilidade.

2. Compliance theater

Política proibindo no papel + uso real na prática = a empresa finge que não usa mas usa. Em auditoria, isso é pior do que admitir uso e ter controle, porque elimina a possibilidade de defender o uso responsável e cria dissonância entre política declarada e realidade operacional.

3. Custo de oportunidade

ChatGPT, Claude, Copilot bem usado economiza horas por semana por funcionário em redação, pesquisa, código, brainstorming. Empresas que proíbem completamente perdem essa produtividade pra concorrentes que liberam de forma controlada. Em mercados competitivos, isso é diferença de margem.

O framework: matriz de decisão por tipo de dado e tipo de tarefa

Em vez de "proibir" ou "liberar", a abordagem que funciona é uma matriz que cruza dois eixos:

  • Eixo 1 (sensibilidade do dado): público / interno / confidencial / restrito
  • Eixo 2 (tipo de ferramenta): LLM público consumer / LLM enterprise / RAG privado interno

A matriz fica assim:

LLM público (ChatGPT free, Claude.ai)LLM enterprise (ChatGPT Team, Copilot Enterprise, Azure OpenAI)RAG privado interno (Wicko, similar)
Dado público (já está na internet)✅ Liberado✅ Liberado✅ Liberado
Dado interno (não confidencial mas não público, políticas internas, comunicação entre times)⚠️ Liberado com alerta✅ Liberado✅ Liberado
Dado confidencial (financeiro, estratégico, contratos, código-fonte)❌ Proibido⚠️ Liberado com aprovação✅ Liberado
Dado restrito (dados pessoais, dados de cliente, material non-public information, segredo industrial)❌ Proibido❌ Proibido✅ Liberado (com aprovação humana e auditoria)

Lendo a matriz: a célula que separa "uso seguro" de "uso arriscado" não é a ferramenta, é o cruzamento ferramenta + dado. ChatGPT consumer pra escrever um email genérico de marketing é zero risco. ChatGPT consumer pra resumir contratos é alto risco.

Política eficaz não fala "não use ChatGPT". Fala "não cole dado confidencial em ChatGPT consumer; pra dado confidencial, use a ferramenta interna X".

O que liberar (e por quê)

Tarefas seguras pra IA pública mesmo em contextos corporativos:

  • Brainstorming e ideação: gerar opções, listar prós/contras, explorar ângulos. Você não cola dado da empresa, usa o LLM como sparring partner.
  • Refinar redação: você escreve um draft, cola o texto sem nome de pessoa, empresa ou número específico, e pede pra reescrever mais claro/conciso/formal.
  • Aprender conceitos: explicar termos técnicos, conceitos de tecnologia, vocabulário regulatório. O conhecimento já é público.
  • Tradução de texto não-confidencial: comunicações de marketing, emails genéricos, posts.
  • Geração de código boilerplate: snippets que não são proprietários, scripts utilitários, queries SQL que não expõem schema sensível.
  • Resumir conteúdo público: artigos, papers, posts.
  • Pesquisa exploratória: perguntas conceituais, "como funciona X", "qual a diferença entre Y e Z".

Pra esse uso, ChatGPT, Claude e Gemini gratuitos ou Plus são ferramentas legítimas e altamente produtivas. Proibir aqui é só perder tempo dos funcionários.

O que proibir (e como ter uma alternativa)

Tarefas que nunca devem usar LLM público, mesmo enterprise:

  • Análise de contratos com clientes nomeados
  • Resposta a questionários de DDQ, RFP, fornecedor com info real da empresa
  • Análise de planilhas financeiras internas
  • Code review de código proprietário
  • Pesquisa em jurisprudência (a menos que o output seja validado contra fonte oficial)
  • Diagnóstico médico com dados de paciente
  • Análise de prontuário, processo, contrato com nome de cliente
  • Material non-public information (informação privilegiada)

Pra essas tarefas, proibir o público sem oferecer alternativa garante que vai virar shadow IT. A alternativa correta é uma ferramenta interna que:

  1. Usa RAG nos documentos da empresa, não modelo público respondendo de cabeça
  2. Tem isolamento por organização, dados de uma empresa nunca tocam dados de outra
  3. Não treina modelo com os dados do cliente (contratualmente)
  4. Cita fonte verificável em cada resposta
  5. Tem fluxo de aprovação humana obrigatório antes de export
  6. Loga toda interação pra auditoria
  7. Roda em infra com conformidade LGPD
  8. Suporta opção on-premise pra clientes que precisam controle total

Objetivo

Esse é exatamente o pacote do Wicko. A gente construiu pra resolver esse problema específico: dar ao time corporativo o ganho de produtividade da IA generativa sem o risco de vazamento ou alucinação. Veja como funciona.

Política exemplo (template editável)

Aqui vai um template prático que você pode adaptar pra sua empresa. Curto de propósito, políticas longas não são lidas.

Política de Uso de IA Generativa, [Empresa]

Versão 1.0, vigente a partir de [data]

1. Princípio

Ferramentas de IA generativa são bem-vindas no nosso ambiente de trabalho quando usadas de forma responsável. Esta política define quando e como usar.

2. Ferramentas aprovadas

  • Para uso geral (sem dados confidenciais): ChatGPT (Plus ou Team), Claude, Gemini, Microsoft Copilot
  • Para dados confidenciais e questionários internos: [nome da ferramenta interna, ex: Wicko]
  • Para código-fonte proprietário: [nome da ferramenta interna ou Copilot Enterprise]

3. O que você PODE fazer com IA pública

  • Brainstorming, ideação, exploração de conceitos
  • Refinar redação de texto SEM dados sensíveis (sem nomes de cliente, números financeiros, contratos)
  • Aprender conceitos técnicos, regulatórios, de produto
  • Gerar código boilerplate, scripts utilitários
  • Tradução de texto público

4. O que você NÃO PODE fazer com IA pública

  • Inserir dados pessoais identificáveis (nome, CPF, e-mail, endereço)
  • Inserir dados financeiros internos (faturamento, margem, salários, comissões)
  • Inserir contratos, propostas comerciais, ou conteúdo de negociação
  • Inserir código-fonte proprietário
  • Inserir material non-public information
  • Usar a saída em decisão regulatória, jurídica ou financeira sem validação humana com fonte verificável

5. Pra essas tarefas proibidas, use a ferramenta interna

A ferramenta interna [nome] foi configurada pra rodar nos nossos próprios dados, com isolamento, citação de fonte e aprovação humana. Use ela pra qualquer tarefa que envolva os dados sensíveis acima.

6. Treinamento obrigatório

Todos os funcionários devem completar o treinamento online de uso responsável de IA até [data]. Sem exceções.

7. Em caso de incidente

Se você acredita que pode ter inserido dados sensíveis numa ferramenta pública, comunique ao time de segurança ([email]) imediatamente. Não há punição por reportar, há por esconder.

8. Revisão

Esta política é revisada a cada 6 meses ou sempre que uma nova ferramenta for aprovada/banida.

Adaptar pra sua realidade. Substituir os colchetes. Aprovar com jurídico. Comunicar ativamente, não só publicar no Confluence.

Como implementar na prática (4 passos)

Política no papel não muda comportamento. O que funciona é uma sequência de 4 ações:

Passo 1: Educar (com casos reais)

Treinamento obrigatório de 30 minutos cobrindo:

  • Os casos famosos (Samsung, Air Canada, Mata vs Avianca)
  • A matriz de decisão (slide com a tabela acima)
  • As ferramentas aprovadas e como usar cada uma
  • Os 5 erros mais comuns
  • Quem chamar em caso de dúvida

Funcionário que entende o porquê segue a regra. Quem só recebe a regra ignora.

Passo 2: Detectar (DLP em outbound)

Configurar o sistema de Data Loss Prevention pra detectar e bloquear envio de dados sensíveis pra domínios de IA pública (chat.openai.com, claude.ai, gemini.google.com, etc.). A maioria dos DLPs corporativos modernos suporta isso nativamente.

Importante: avisar o funcionário quando bloquear, com mensagem explicando o porquê e qual ferramenta usar no lugar. Bloqueio silencioso vira frustração; bloqueio educativo vira aprendizado.

Passo 3: Substituir (oferecer alternativa)

Sem alternativa interna, o ban não tem chance. Implantar uma ferramenta que cobre os casos sensíveis com o mesmo nível de produtividade. Se a alternativa for pior que ChatGPT, ninguém vai usar, vai voltar pro shadow IT.

A alternativa precisa ter:

  • Velocidade (resposta em segundos, não minutos)
  • Qualidade (igual ou superior ao ChatGPT pro caso de uso)
  • Facilidade (login único, integração nativa, sem fricção)
  • Confiabilidade (citações verificáveis, nada inventado)

Passo 4: Auditar (logs e revisão periódica)

Ter logs de todas as interações com a ferramenta interna. Revisar amostra mensalmente. Procurar:

  • Casos onde a IA respondeu errado ou sem confiança suficiente
  • Casos onde o usuário não revisou antes de aprovar
  • Casos onde a citação não corresponde ao que a IA afirmou
  • Padrões de uso que sugerem necessidade de mais treinamento

Auditoria contínua faz a política viver. Sem auditoria, a política morre em 6 meses.

Resumo

Proibir IA generativa pública não funciona, funcionários usam mesmo. Liberar tudo também não funciona, vaza dado, alucina e quebra LGPD. A resposta é uma matriz: ferramenta certa pra dado certo.

  • Liberar ChatGPT/Claude/Gemini/Copilot pra brainstorming, refino de texto, aprendizado, código boilerplate, coisa que não envolve dado sensível.
  • Proibir uso público pra qualquer coisa com dados pessoais, financeiros internos, contratos, código proprietário, jurisprudência decisória, ou material non-public information.
  • Substituir com ferramenta interna que rode RAG nos seus próprios documentos, com isolamento, citação verificável e aprovação humana, pra cobrir os casos proibidos sem matar a produtividade.

E educar o time, detectar com DLP, oferecer alternativa real, e auditar continuamente. Política só no papel é pior que não ter política nenhuma.

Esse é o estado da arte de governança de IA generativa em 2026. As empresas brasileiras que conseguirem montar essa estrutura nos próximos 12 meses vão capturar o ganho de produtividade. As que ficarem entre "proibir tudo" e "deixar virar bagunça" vão ficar pra trás.


Ação

Wicko é a alternativa interna que sua política precisa

Construímos o Wicko pra ser exatamente a ferramenta da terceira coluna da matriz: RAG nos documentos da sua empresa, isolamento total por organização, citações verificáveis em cada resposta, fluxo de aprovação humana, conformidade LGPD, e opção on-premise.

Comece o teste grátis de 14 dias → ou veja como funciona em 5 minutos.

Posts relacionados:

  • Por que LLMs alucinam, e como construir IA empresarial confiável
  • RAG em português: o guia completo
  • Por que citações verificáveis são essenciais em respostas geradas por IA

Quer ver isso rodando nos seus documentos?

Teste grátis por 14 dias. Importa os documentos, pergunta, e ver a IA citando a fonte exata. Sem cartão de crédito.

Começar grátis
TagsChatGPTcomplianceLGPDshadow ITgovernança de IA
CompartilharLinkedInX
D

Escrito por

Daniel

Co-Founder & CTO

Co-fundador e CTO da Wicko. Trabalha em IA empresarial, RAG e automação de questionários para o mercado brasileiro desde 2025.

Sobre a WickoLinkedIn

Newsletter Wicko

Receba 1 artigo por semana sobre IA empresarial

Guias práticos sobre RAG, automação de questionários, segurança e casos reais — em português, sem hype. Leitura de 5 minutos no seu e-mail toda quinta.

Sem spam. Cancele a qualquer momento. Conformidade LGPD.

Continue lendo

Artigos relacionados

Todos os artigos
IA e Compliance·13 min

Por que LLMs alucinam, e como construir IA empresarial confiável

Casos reais (incluindo o advogado multado em US$10 mil e a Air Canada forçada a honrar uma política inventada pela IA), o mecanismo técnico da alucinação, e cinco técnicas para reduzir o risco em sistemas corporativos.

IA e Compliance·3 min

Por que citações verificáveis são essenciais em respostas geradas por IA

Como citações com fontes transformam respostas de IA de 'provavelmente certo' para 'verificadamente correto', e por que isso importa para compliance.

IA e Conceitos·14 min

RAG em português: o guia completo de Retrieval-Augmented Generation

O que é RAG, como funciona por dentro, como se compara a fine-tuning e contexto longo, e por que virou o padrão de IA empresarial em 2026, explicado em português para quem nunca leu o paper original.

WickoWicko

Plataforma de IA para gestão de conhecimento e automação de respostas. Questionários, RFPs e formulários respondidos em minutos, com citações verificáveis.

PLATAFORMA

Casos de UsoFuncionalidadesIntegraçõesComo FuncionaCalculadora de ROIWicko vs ChatGPT

EMPRESA

SobreBlogPlanosCentral de Ajuda

JURÍDICO

Termos de UsoPolítica de PrivacidadePolítica de Uso Justo

© 2026 Wicko AI. Todos os direitos reservados.