ChatGPT no trabalho: o que sua empresa deveria proibir (e o que liberar)
Samsung, Apple, JPMorgan e Goldman Sachs proibiram ChatGPT em 2023. A maioria dos funcionários usa mesmo assim. Um framework prático para CISOs e times de compliance que precisam definir política de IA generativa sem destruir produtividade.
O paradoxo da IA generativa no trabalho corporativo
Em 2026, a situação típica de uma empresa brasileira média é mais ou menos essa:
- 70% dos funcionários já usam ChatGPT, Claude, Gemini ou Copilot pra tarefas de trabalho (Microsoft Work Trend Index 2024)
- 40% dessas empresas têm política formal proibindo ou restringindo IA generativa
- 80% dos funcionários que usam não contam pro chefe que estão usando
- 10% já colaram dados confidenciais (código-fonte, contratos, planilhas internas) em chats públicos
Faça as contas. Se você é CISO, tem alta probabilidade de ter dados da sua empresa no histórico de prompts de algum LLM público, sem rastreamento, sem aprovação, sem proteção. Isso é shadow IT em sua forma mais pura, e é completamente compreensível, porque ChatGPT realmente economiza horas por semana pra quem usa bem.
Reação
Esse post é pra quem precisa resolver esse paradoxo: como capturar o ganho de produtividade sem assumir o risco.
Por que Samsung proibiu (e por que isso virou case study)
Em abril de 2023, três incidentes separados na Samsung em três semanas:
- Engenheiro 1 colou código-fonte confidencial de um software interno no ChatGPT pedindo ajuda pra debugar.
- Engenheiro 2 colou notas de uma reunião interna sigilosa pedindo pra resumir.
- Engenheiro 3 colou um documento técnico de hardware pedindo otimização.
Em todos os três casos, os dados foram incluídos no histórico do ChatGPT e, pelos termos de serviço da OpenAI da época, passaram a poder ser usados como dados de treinamento. Em tese, alguém perguntando ao ChatGPT sobre aquele tópico específico poderia receber uma resposta contendo trechos daqueles dados.
A Samsung, em maio de 2023, baniu o uso de qualquer IA generativa pública no equipamento corporativo e proibiu funcionários de inserir dados da empresa em ChatGPT, Bard, Bing Chat ou similares. A pena: até demissão.
Logo depois vieram:
| Empresa | Quando | O que proibiu |
|---|---|---|
| JPMorgan Chase | Fev 2023 | ChatGPT em todos os dispositivos corporativos |
| Goldman Sachs | Fev 2023 | ChatGPT no ambiente de trabalho |
| Citigroup | Fev 2023 | ChatGPT no ambiente de trabalho |
| Bank of America | Mar 2023 | Acesso bloqueado |
| Apple | Mai 2023 | ChatGPT, Copilot e Bard (enquanto desenvolve concorrente interno) |
| Verizon | Fev 2023 | Acesso bloqueado |
| Amazon | Jan 2023 | Avisou funcionários a não compartilhar info confidencial |
| Northrop Grumman | 2023 | Banido por questões de defesa |
| Accenture | 2023 | Banido pra clientes específicos |
Esses bans são citados em todos os boards de risco como precedente. E nem todos foram revertidos, alguns foram substituídos por versões enterprise (Azure OpenAI, Copilot Enterprise), mas o ChatGPT consumer continua bloqueado em muita empresa Tier 1.
Os 3 riscos reais (sem alarmismo)
Vamos separar risco real de paranoia. Tem três riscos legítimos quando funcionários usam IA generativa pública com dados de trabalho. Eles não são iguais, vale entender cada um.
Risco 1: Vazamento de dados via histórico e treinamento
Como funciona: você cola um documento no ChatGPT. Esse texto vai pro servidor da OpenAI. Dependendo do plano:
- ChatGPT Free e Plus (consumer): por padrão, conversas podem ser usadas pra treinar modelos. Você pode desligar isso nas configurações, mas a maioria dos funcionários não desliga.
- ChatGPT Team e Enterprise: a OpenAI promete que não treina modelos com seus dados. É contratual.
- API direta da OpenAI: também não treina por padrão (desde março de 2023).
A consequência prática do treinamento: se a OpenAI usa seus dados pra treinar, em tese aquele conteúdo pode reaparecer em respostas a outros usuários, semanas ou meses depois. Já houve casos documentados de "leak por LLM", conteúdo confidencial reaparecendo em prompts de terceiros.
Severidade real: alta pra dados estratégicos (M&A, preços, código-fonte, contratos). Baixa pra texto genérico (políticas públicas, comunicações de marketing).
Risco 2: Alucinação em decisões importantes
Como funciona: o LLM gera resposta plausível mas factualmente errada. Funcionário usa pra decidir/agir, sem checar a fonte. Empresa toma decisão com base em informação inventada.
Exemplos reais:
- Caso Mata vs Avianca (2023): advogado submeteu petição com 6 jurisprudências fabricadas pelo ChatGPT. Multado em US$ 5.000.
- Caso Air Canada (2024): chatbot inventou política de reembolso. Empresa foi obrigada por tribunal canadense a honrar a política inventada.
- Caso Iowa school district (2023): distrito escolar usou ChatGPT pra escolher livros a remover por "conteúdo inapropriado". O LLM recomendou banir livros que não tinham nada de inapropriado, e listou trechos inventados como justificativa.
Severidade real: alta. E pior, é risco que escala, porque quem usa LLM pra "ganhar tempo" tipicamente não checa a fonte. Esse é o ponto.
Nota
Sobre por que LLMs alucinam e o que fazer, escrevi um post separado: Por que LLMs alucinam e como construir IA empresarial confiável.
Risco 3: LGPD, sigilo profissional e regulação setorial
Como funciona: a Lei Geral de Proteção de Dados (LGPD) trata o envio de dados pessoais a um serviço externo como tratamento de dados pessoais. Isso significa que:
- Você precisa ter base legal pra fazer
- Você precisa ter contrato de operador com o terceiro (a OpenAI, Anthropic, etc.) ou enquadrar como caso de uso permitido
- Você precisa garantir transferência internacional apropriada (a maioria desses serviços roda em servidores nos EUA)
- O titular dos dados tem direito de saber e contestar
Funcionário colando dados de cliente, paciente, candidato, fornecedor ou colaborador no ChatGPT pessoal está, do ponto de vista da LGPD, fazendo tratamento de dados pessoais sem base legal e sem garantias contratuais. Em fiscalização da ANPD, isso é multa.
Setores regulados têm camada extra:
- Bancos e instituições financeiras: BACEN exige sigilo bancário (Lei Complementar 105/2001). Dados de cliente em LLM público é descumprimento de sigilo.
- Saúde: CFM e LGPD tratam dado de paciente como dado sensível. Tratamento exige consentimento específico.
- Jurídico: OAB tem regras sobre sigilo profissional. Dado de cliente em LLM público é violação de sigilo.
- Mercado de capitais: CVM trata material non-public information com regras estritas. Vazamento via LLM pode configurar uso indevido.
Severidade real: catastrófica em setores regulados. Alta em qualquer empresa que trate dado pessoal.
Por que proibir não funciona
Proibir é a resposta intuitiva. Também é a resposta que falha. Três motivos:
1. Shadow IT é incontrolável
Funcionário acessa ChatGPT do celular pessoal, em rede 4G, fora do alcance do firewall corporativo. O ban formal só desloca o uso, não elimina. Estudos da Cyberhaven (2023) e do Microsoft Work Trend Index mostram que onde a empresa proíbe, o uso continua, só sem rastreabilidade.
2. Compliance theater
Política proibindo no papel + uso real na prática = a empresa finge que não usa mas usa. Em auditoria, isso é pior do que admitir uso e ter controle, porque elimina a possibilidade de defender o uso responsável e cria dissonância entre política declarada e realidade operacional.
3. Custo de oportunidade
ChatGPT, Claude, Copilot bem usado economiza horas por semana por funcionário em redação, pesquisa, código, brainstorming. Empresas que proíbem completamente perdem essa produtividade pra concorrentes que liberam de forma controlada. Em mercados competitivos, isso é diferença de margem.
O framework: matriz de decisão por tipo de dado e tipo de tarefa
Em vez de "proibir" ou "liberar", a abordagem que funciona é uma matriz que cruza dois eixos:
- Eixo 1 (sensibilidade do dado): público / interno / confidencial / restrito
- Eixo 2 (tipo de ferramenta): LLM público consumer / LLM enterprise / RAG privado interno
A matriz fica assim:
| LLM público (ChatGPT free, Claude.ai) | LLM enterprise (ChatGPT Team, Copilot Enterprise, Azure OpenAI) | RAG privado interno (Wicko, similar) | |
|---|---|---|---|
| Dado público (já está na internet) | ✅ Liberado | ✅ Liberado | ✅ Liberado |
| Dado interno (não confidencial mas não público, políticas internas, comunicação entre times) | ⚠️ Liberado com alerta | ✅ Liberado | ✅ Liberado |
| Dado confidencial (financeiro, estratégico, contratos, código-fonte) | ❌ Proibido | ⚠️ Liberado com aprovação | ✅ Liberado |
| Dado restrito (dados pessoais, dados de cliente, material non-public information, segredo industrial) | ❌ Proibido | ❌ Proibido | ✅ Liberado (com aprovação humana e auditoria) |
Lendo a matriz: a célula que separa "uso seguro" de "uso arriscado" não é a ferramenta, é o cruzamento ferramenta + dado. ChatGPT consumer pra escrever um email genérico de marketing é zero risco. ChatGPT consumer pra resumir contratos é alto risco.
Política eficaz não fala "não use ChatGPT". Fala "não cole dado confidencial em ChatGPT consumer; pra dado confidencial, use a ferramenta interna X".
O que liberar (e por quê)
Tarefas seguras pra IA pública mesmo em contextos corporativos:
- Brainstorming e ideação: gerar opções, listar prós/contras, explorar ângulos. Você não cola dado da empresa, usa o LLM como sparring partner.
- Refinar redação: você escreve um draft, cola o texto sem nome de pessoa, empresa ou número específico, e pede pra reescrever mais claro/conciso/formal.
- Aprender conceitos: explicar termos técnicos, conceitos de tecnologia, vocabulário regulatório. O conhecimento já é público.
- Tradução de texto não-confidencial: comunicações de marketing, emails genéricos, posts.
- Geração de código boilerplate: snippets que não são proprietários, scripts utilitários, queries SQL que não expõem schema sensível.
- Resumir conteúdo público: artigos, papers, posts.
- Pesquisa exploratória: perguntas conceituais, "como funciona X", "qual a diferença entre Y e Z".
Pra esse uso, ChatGPT, Claude e Gemini gratuitos ou Plus são ferramentas legítimas e altamente produtivas. Proibir aqui é só perder tempo dos funcionários.
O que proibir (e como ter uma alternativa)
Tarefas que nunca devem usar LLM público, mesmo enterprise:
- Análise de contratos com clientes nomeados
- Resposta a questionários de DDQ, RFP, fornecedor com info real da empresa
- Análise de planilhas financeiras internas
- Code review de código proprietário
- Pesquisa em jurisprudência (a menos que o output seja validado contra fonte oficial)
- Diagnóstico médico com dados de paciente
- Análise de prontuário, processo, contrato com nome de cliente
- Material non-public information (informação privilegiada)
Pra essas tarefas, proibir o público sem oferecer alternativa garante que vai virar shadow IT. A alternativa correta é uma ferramenta interna que:
- Usa RAG nos documentos da empresa, não modelo público respondendo de cabeça
- Tem isolamento por organização, dados de uma empresa nunca tocam dados de outra
- Não treina modelo com os dados do cliente (contratualmente)
- Cita fonte verificável em cada resposta
- Tem fluxo de aprovação humana obrigatório antes de export
- Loga toda interação pra auditoria
- Roda em infra com conformidade LGPD
- Suporta opção on-premise pra clientes que precisam controle total
Objetivo
Esse é exatamente o pacote do Wicko. A gente construiu pra resolver esse problema específico: dar ao time corporativo o ganho de produtividade da IA generativa sem o risco de vazamento ou alucinação. Veja como funciona.
Política exemplo (template editável)
Aqui vai um template prático que você pode adaptar pra sua empresa. Curto de propósito, políticas longas não são lidas.
Política de Uso de IA Generativa, [Empresa]
Versão 1.0, vigente a partir de [data]
1. Princípio
Ferramentas de IA generativa são bem-vindas no nosso ambiente de trabalho quando usadas de forma responsável. Esta política define quando e como usar.
2. Ferramentas aprovadas
- Para uso geral (sem dados confidenciais): ChatGPT (Plus ou Team), Claude, Gemini, Microsoft Copilot
- Para dados confidenciais e questionários internos: [nome da ferramenta interna, ex: Wicko]
- Para código-fonte proprietário: [nome da ferramenta interna ou Copilot Enterprise]
3. O que você PODE fazer com IA pública
- Brainstorming, ideação, exploração de conceitos
- Refinar redação de texto SEM dados sensíveis (sem nomes de cliente, números financeiros, contratos)
- Aprender conceitos técnicos, regulatórios, de produto
- Gerar código boilerplate, scripts utilitários
- Tradução de texto público
4. O que você NÃO PODE fazer com IA pública
- Inserir dados pessoais identificáveis (nome, CPF, e-mail, endereço)
- Inserir dados financeiros internos (faturamento, margem, salários, comissões)
- Inserir contratos, propostas comerciais, ou conteúdo de negociação
- Inserir código-fonte proprietário
- Inserir material non-public information
- Usar a saída em decisão regulatória, jurídica ou financeira sem validação humana com fonte verificável
5. Pra essas tarefas proibidas, use a ferramenta interna
A ferramenta interna [nome] foi configurada pra rodar nos nossos próprios dados, com isolamento, citação de fonte e aprovação humana. Use ela pra qualquer tarefa que envolva os dados sensíveis acima.
6. Treinamento obrigatório
Todos os funcionários devem completar o treinamento online de uso responsável de IA até [data]. Sem exceções.
7. Em caso de incidente
Se você acredita que pode ter inserido dados sensíveis numa ferramenta pública, comunique ao time de segurança ([email]) imediatamente. Não há punição por reportar, há por esconder.
8. Revisão
Esta política é revisada a cada 6 meses ou sempre que uma nova ferramenta for aprovada/banida.
Adaptar pra sua realidade. Substituir os colchetes. Aprovar com jurídico. Comunicar ativamente, não só publicar no Confluence.
Como implementar na prática (4 passos)
Política no papel não muda comportamento. O que funciona é uma sequência de 4 ações:
Passo 1: Educar (com casos reais)
Treinamento obrigatório de 30 minutos cobrindo:
- Os casos famosos (Samsung, Air Canada, Mata vs Avianca)
- A matriz de decisão (slide com a tabela acima)
- As ferramentas aprovadas e como usar cada uma
- Os 5 erros mais comuns
- Quem chamar em caso de dúvida
Funcionário que entende o porquê segue a regra. Quem só recebe a regra ignora.
Passo 2: Detectar (DLP em outbound)
Configurar o sistema de Data Loss Prevention pra detectar e bloquear envio de dados sensíveis pra domínios de IA pública (chat.openai.com, claude.ai, gemini.google.com, etc.). A maioria dos DLPs corporativos modernos suporta isso nativamente.
Importante: avisar o funcionário quando bloquear, com mensagem explicando o porquê e qual ferramenta usar no lugar. Bloqueio silencioso vira frustração; bloqueio educativo vira aprendizado.
Passo 3: Substituir (oferecer alternativa)
Sem alternativa interna, o ban não tem chance. Implantar uma ferramenta que cobre os casos sensíveis com o mesmo nível de produtividade. Se a alternativa for pior que ChatGPT, ninguém vai usar, vai voltar pro shadow IT.
A alternativa precisa ter:
- Velocidade (resposta em segundos, não minutos)
- Qualidade (igual ou superior ao ChatGPT pro caso de uso)
- Facilidade (login único, integração nativa, sem fricção)
- Confiabilidade (citações verificáveis, nada inventado)
Passo 4: Auditar (logs e revisão periódica)
Ter logs de todas as interações com a ferramenta interna. Revisar amostra mensalmente. Procurar:
- Casos onde a IA respondeu errado ou sem confiança suficiente
- Casos onde o usuário não revisou antes de aprovar
- Casos onde a citação não corresponde ao que a IA afirmou
- Padrões de uso que sugerem necessidade de mais treinamento
Auditoria contínua faz a política viver. Sem auditoria, a política morre em 6 meses.
Resumo
Proibir IA generativa pública não funciona, funcionários usam mesmo. Liberar tudo também não funciona, vaza dado, alucina e quebra LGPD. A resposta é uma matriz: ferramenta certa pra dado certo.
- Liberar ChatGPT/Claude/Gemini/Copilot pra brainstorming, refino de texto, aprendizado, código boilerplate, coisa que não envolve dado sensível.
- Proibir uso público pra qualquer coisa com dados pessoais, financeiros internos, contratos, código proprietário, jurisprudência decisória, ou material non-public information.
- Substituir com ferramenta interna que rode RAG nos seus próprios documentos, com isolamento, citação verificável e aprovação humana, pra cobrir os casos proibidos sem matar a produtividade.
E educar o time, detectar com DLP, oferecer alternativa real, e auditar continuamente. Política só no papel é pior que não ter política nenhuma.
Esse é o estado da arte de governança de IA generativa em 2026. As empresas brasileiras que conseguirem montar essa estrutura nos próximos 12 meses vão capturar o ganho de produtividade. As que ficarem entre "proibir tudo" e "deixar virar bagunça" vão ficar pra trás.
Ação
Wicko é a alternativa interna que sua política precisa
Construímos o Wicko pra ser exatamente a ferramenta da terceira coluna da matriz: RAG nos documentos da sua empresa, isolamento total por organização, citações verificáveis em cada resposta, fluxo de aprovação humana, conformidade LGPD, e opção on-premise.
Comece o teste grátis de 14 dias → ou veja como funciona em 5 minutos.
Posts relacionados:
Quer ver isso rodando nos seus documentos?
Teste grátis por 14 dias. Importa os documentos, pergunta, e ver a IA citando a fonte exata. Sem cartão de crédito.
Começar grátisEscrito por
Daniel
Co-Founder & CTO
Co-fundador e CTO da Wicko. Trabalha em IA empresarial, RAG e automação de questionários para o mercado brasileiro desde 2025.