A cada semana aparece uma nova ferramenta prometendo um salto de produtividade com inteligência artificial. Menos cliques, mais automação, mais velocidade. O fascínio é compreensível. O problema é que quase ninguém faz a pergunta que deveria vir antes de qualquer instalação: o que eu estou entregando em troca dessa conveniência?
No Dia Mundial da Privacidade, celebrado em 28 de janeiro, é o momento ideal para revisitar essa questão. Quando falamos de IA — principalmente de utilitários que operam diretamente no seu computador —, a troca às vezes é bem mais cara do que parece. E no contexto jurídico, onde sigilo não é diferencial, é obrigação, esse risco se transforma em uma bomba-relógio silenciosa.
| Privacidade não é paranoia. É gestão de risco. |
O Fenômeno Moltbot: Quando a Ferramenta Quer “Tudo”
O mercado de tecnologia foi recentemente agitado pelo surgimento de uma ferramenta chamada ClawdBot, que rapidamente mudou de nome para Moltbot. Convém esclarecer um ponto importante desde o início: o Moltbot não é uma inteligência artificial em si. Trata-se de um centralizador de comandos e gestão que conecta serviços locais da sua máquina a IAs poderosas como ChatGPT, Claude ou Perplexity.
A promessa sedutora
A proposta é ter um assistente pessoal pleno que controla seu computador. Imagine enviar um comando via WhatsApp para a sua própria máquina dizendo “Envie um e-mail para fulano”. O robô abriria seu Outlook ou Gmail, escreveria a mensagem usando IA e enviaria, tudo automaticamente. Um verdadeiro “Jarvis” da vida real.
O preço real da conveniência
Para que essa mágica aconteça, o usuário precisa conceder permissões totais à ferramenta. Estamos falando de um pacote completo de acessos: controlar o computador, ler o que está na tela, integrar com contas pessoais, acessar e-mails, calendários, navegadores e todos os serviços conectados. Na prática, isso transforma a ferramenta em um copiloto com acesso ao cockpit inteiro.
E aí entra o dilema central: você está contratando produtividade ou está instalando uma janela aberta para informações estratégicas?
Os sinais de alerta
Diferente de gigantes como Microsoft ou Google, que possuem décadas de histórico e lastro de confiança, o Moltbot é uma novidade sem garantias claras de segurança. O fato de ter mudado de nome em questão de dias é, por si só, um sinal de alerta sobre a seriedade e estabilidade do projeto. Se você trabalha com dados sensíveis, contratos de confidencialidade (NDA) ou processos jurídicos, permitir que um software desconhecido leia todos os seus arquivos locais é um risco incalculável.
| A recomendação é clara: cautela. Ainda é um momento de hype. Não vale a pena comprometer a segurança de dados profissionais por uma conveniência que ainda não provou ser segura. |
O Risco Invisível no Dia a Dia Profissional
A discussão pode parecer abstrata até que você pense em cenários reais. Um advogado com o e-mail aberto negociando um acordo. Um contrato em revisão com cláusulas sensíveis na tela. Petições, pesquisas, dados de cliente, provas, estratégias processuais. Mensagens internas no Teams, WhatsApp Web ou Slack. Planilhas financeiras, relatórios internos, dados pessoais protegidos pela LGPD.
Em advocacia e consultoria, isso não é “só dado”. Isso é estratégia, prova, segredo profissional, vantagem competitiva. A pergunta que precisa ser feita sem rodeios é: vale ganhar 20% de velocidade se você está aumentando 200% o risco?
Vazamento não precisa ser espetacular
Há um detalhe que pouca gente considera: vazamento de dados não precisa ser um hackeamento cinematográfico. Vazamento pode acontecer de formas bem mais sutis: coleta excessiva de informações, integração mal configurada, logs guardados por tempo indeterminado, sincronização com serviço terceiro, treinamento ou retenção indevida de conteúdo, ou simplesmente uma permissão que nunca deveria ter sido concedida. O risco mora no “aceitar e seguir” irrefletido.
Advocacia e IA: Usar com Governança, Não com Romantismo
No jurídico, não existe espaço para romantizar ferramentas com acesso total. Profissionais do direito lidam diariamente com dados pessoais e sensíveis, informações protegidas por sigilo, estratégias processuais e negociais, documentos confidenciais, evidências e relatórios internos. Mesmo quando a situação “não parece tão grave”, é fundamental lembrar que a LGPD não exige intenção para responsabilizar — ela exige responsabilidade.
| Dá para usar IA? Sim, eu uso e ensino isso há tempo. Mas usar IA com governança é diferente de sair plugando qualquer utilitário que aparece no feed. Produtividade boa é a que não te expõe. |
Guia Prático: Como Blindar Seus Dados no ChatGPT
Muitas pessoas utilizam o ChatGPT, especialmente nas versões Plus e Teams, sem saber que, por padrão, podem estar alimentando a IA com seus dados confidenciais. A boa notícia é que existem configurações simples que fazem uma diferença enorme. Aqui está um checklist de proteção que você pode aplicar agora mesmo.
| 1 | Desative o treinamento com seus dados. Vá até Configurações > Controle de Dados e desative a opção “Melhorar o modelo para todos”. Com isso ativado (que é o padrão), tudo o que você escreve, compartilha ou sobe é usado para treinar a máquina. Ao desativar, seus dados permanecem privados. |
| 2 | Ative a autenticação multifator (MFA). Prefira aplicativos autenticadores como Google Authenticator, Microsoft Authenticator ou as chaves de acesso da Apple. Evite o SMS: se alguém tiver acesso ao seu chip ou celular, consegue receber o código. Os apps oferecem uma camada extra de validação. |
| 3 | Revise histórico e retenção. Entenda se suas conversas ficam salvas, por quanto tempo, e como você pode gerenciar ou apagar esse histórico. Informação esquecida na nuvem ainda é informação exposta. |
| 4 | Evite dados identificáveis de clientes. Trabalhe com abstrações: “Cliente A”, “Empresa X”, “Contrato Y”. Remova CPF, CNPJ, endereços, nomes completos e números de processo quando não forem absolutamente indispensáveis. |
| 5 | Separe ambiente pessoal e profissional. Se você usa conta pessoal para trabalho, está misturando riscos: extensões de navegador, integrações, histórico, compartilhamentos e dispositivos. O mínimo é ter separação de contexto. |
| 6 | Use instruções personalizadas com cuidado. Você pode configurar o ChatGPT para saber quem você é e como responder (tom profissional, estilo natural), mas faça isso sem inserir dados sensíveis desnecessários. |
A Filosofia por Trás: “Privacidade Importa”
A privacidade não deve ser vista como um obstáculo burocrático, mas como um valor essencial — especialmente para advogados e empresas. O brasileiro, muitas vezes, tem o hábito de aceitar termos de uso sem ler, buscando apenas o benefício imediato. Precisamos adotar uma postura de questionamento constante.
Antes de adotar qualquer ferramenta, pergunte-se: o que essa ferramenta acessa? O que ela armazena? Com quem ela compartilha? Qual é o histórico da empresa? Qual é o plano quando algo der errado? Se a resposta for vaga, se a permissão for ampla demais, se a transparência for fraca, então a atitude inteligente é frear.
Porque no jurídico, confiabilidade é ativo. E ativo não se coloca em risco por causa de um atalho de produtividade.
Enfim
A tecnologia deve servir ao humano, e não colocá-lo em risco. Seja cauteloso com ferramentas recém-lançadas que pedem controle total da sua máquina e revise hoje mesmo as configurações das IAs que você já utiliza. Demonstrar respeito e cuidado com os dados — seus e dos seus clientes — é um diferencial profissional em um mundo cada vez mais conectado.
| Privacidade Importa. Use IA com inteligência, governança e responsabilidade. |
Por Gustavo Rocha | http://www.gustavorocha.com | Baseado no episódio Código Rocha – Ep. 2 | 28 de janeiro de 2026
Assista Código Rocha na íntegra – https://www.youtube.com/watch?v=kp0eYOkjQXQ
Gustavo Rocha
Consultor em gestão, tecnologia e marketing jurídico
Especialista em Inteligência Artificial aplicada ao Direito e em Privacidade
Professor de Pós-Graduação e coordenador de grupos de estudos na ESA/RS
Membro de comissões da OAB/RS e OAB/SP
Site: http://www.gustavorocha.com | E-mail: gustavo@gustavorocha.com
WhatsApp/Telegram: (51) 98163.3333