O gif acima foi gerada por uma inteligência artificial com base apenas no que ela “sabe” sobre o autor. Foi fornecida apenas uma foto atual como referência facial — e o resto foi conhecimento acumulado nas interações. Este fato, por si só, já é o ponto de partida deste artigo.
Prompt/Comando da IA (ChatGPT): Faca uma caricatura sobre o que sabe de mim. Depois, peguei a caricatura e coloquei no Gemini (Google) e pedi pra criar uma animação pra caricatura. Já o artigo abaixo… pois é, teve ajuda do Claude também 😉
1. Introdução: A Caricatura que Ninguém Pediu
Imagine abrir uma ferramenta de inteligência artificial e pedir: “faça uma caricatura sobre o que você sabe a meu respeito”. O resultado? Uma imagem detalhada que mostra sua área de atuação, suas referências profissionais, os temas que você domina e até elementos visuais que representam sua personalidade. Tudo com apenas uma foto sua atualizada.
Este não é um cenário hipotético. Foi exatamente o que aconteceu quando o experimento que originou a imagem de capa deste artigo foi realizado. A IA sabia que o autor atua com OAB, LGPD, Privacidade e Direito & IA. Sabia do vínculo com tecnologia e inovação. E traduziu tudo isso em uma caricatura surpreendentemente precisa.
A questão que se impõe não é se a IA pode fazer isso — ela já faz. A questão é: o que isso significa para a privacidade, para a ética profissional e para o futuro da advocacia?
2. O Grande Depósito Involuntário: Como Alimentamos a IA com Nossos Dados
Cada interação com uma ferramenta de IA é, na prática, um depósito de dados pessoais. Não estamos falando apenas de nome e CPF, mas de algo muito mais íntimo: nossos padrões de pensamento, nossas dúvidas, nossos medos, nossas estratégias profissionais e até nossos desabafos emocionais.
2.1 O Perfil Invisivel que a IA Constrói
Quando um advogado usa uma IA generativa para revisar uma petição, analisar um contrato ou buscar jurisprudência, ele está simultaneamente ensinando à máquina sobre seus métodos de trabalho, suas áreas de atuação, seus clientes (indiretamente) e seu nível de expertise.
Com o passar do tempo, a IA acumula um perfil comportamental que inclui: horários de trabalho (quando você mais interage), temas recorrentes (direito tributário, trabalhista, digital), nível de complexidade das consultas, idiomas utilizados, estilo de escrita e até o tom emocional das interações.
| Reflexão Prática Quantas vezes você já colou um contrato sigiloso em um chat de IA para “só dar uma olhada”? Quantas vezes copiou trechos de processos com dados sensíveis de clientes? Cada uma dessas ações é, potencialmente, uma violação do dever de sigilo profissional previsto no art. 7º do Código de Ética e Disciplina da OAB. |
2.2 A Memória que Não Esquece
Diferentemente de uma conversa com um colega, que pode ser esquecida, as interações com IAs podem ser armazenadas, processadas e utilizadas para treinamento de modelos futuros — dependendo dos termos de uso da plataforma. Muitos profissionais não leem esses termos e desconhecem que suas conversas podem não ser tão “privadas” quanto imaginam.
Sistemas modernos de IA, como o ChatGPT, Claude e Gemini, já oferecem funcionalidades de memória persistente — ou seja, a IA “lembra” de conversas anteriores para personalizar respostas futuras. Isso é conveniente, mas também significa que o sistema está construindo um dossiê digital sobre você.
| Exemplo Prático — Escritório de Advocacia Um advogado tributário usa regularmente uma IA para revisar planejamentos fiscais. Ao longo de meses, a IA “aprende” que ele atende majoritariamente empresas do Simples Nacional, que seus clientes estão concentrados no setor de comércio eletrônico e que ele frequentemente questiona a constitucionalidade de determinados tributos. Se esses dados vazarem ou forem usados indevidamente, é como se o plano de negócios do escritório estivesse exposto. |
3. O Uso para o Bem: Quando a IA Personalizada Transforma
Seria injusto — e impreciso — tratar a personalização da IA apenas como risco. Quando bem utilizada e dentro de limites éticos, a capacidade da IA de “conhecer” o usuário gera benefícios extraordinários.
3.1 Produtividade Jurídica Potencializada
Uma IA que já conhece seu estilo de petição, suas referências doutrinárias preferidas e os tribunais onde você mais atua pode produzir rascunhos muito mais alinhados com suas necessidades. O tempo economizado é real e mensurável.
| Exemplo Prático — Personalização de Peças Um advogado que atua em direito do consumidor no TJRS usa a IA diariamente. Com o tempo, a ferramenta já sugere automaticamente jurisprudência do próprio tribunal gaúcho, cita doutrinadores que o advogado prefere e adota o estilo argumentativo que ele costuma utilizar. O que antes levava 4 horas para minutar, agora leva 45 minutos. |
3.2 Educação Jurídica Sob Medida
Estudantes de direito e advogados em formação continuada podem se beneficiar enormemente de uma IA que adapta o nível de explicação ao conhecimento prévio do usuário. Para um estudante de 1º ano, a IA explica o que é capacidade processual; para um mestre em processo civil, ela mergulha em nuances doutrinárias.
3.3 Gestão de Escritórios Inteligente
IAs que “conhecem” o fluxo de trabalho de um escritório podem sugerir otimizações de processos, identificar gargalos na produção de peças, prever prazos críticos e até recomendar redistribuição de tarefas entre a equipe. Isso representa uma revolução na gestão jurídica — mas exige atenção aos dados que estão sendo compartilhados.
4. A Mudança de Hábitos: Novos Usos, Novos Riscos
Talvez o fenômeno mais significativo — e preocupante — da era da IA generativa não seja o uso profissional, mas a migração de necessidades humanas fundamentais para o ambiente digital.
4.1 IA como Terapeuta: O Psicólogo Digital
Um número crescente de pessoas está utilizando ferramentas de IA como substituto ou complemento da terapia psicológica. A acessibilidade (24h, sem agendamento, sem custo adicional), a ausência de julgamento percebido e a capacidade de manter conversas profundas tornam essa prática atraente.
Mas os riscos são profundos: a IA não é um profissional de saúde mental. Ela não possui CRP, não é regulamentada pelo Conselho Federal de Psicologia e não está sujeita ao Código de Ética Profissional do Psicólogo. Mais criticamente, os dados sensíveis compartilhados nessas “sessões” não gozam de proteção de sigilo profissional.
| Exemplo Prático — O Advogado em Burnout Um advogado em síndrome de burnout começa a desabafar com a IA sobre pressão de prazos, conflitos com sócios e pensamentos de abandonar a profissão. A IA acolhe, responde com empatia e até sugere técnicas de gerenciamento de estresse. Mas essas conversas ficam registradas. Se a conta for hackeada, se houver um vazamento de dados ou se a plataforma alterar seus termos de uso, esse conteúdo íntimo pode se tornar público. Imagine o impacto para a reputação profissional. |
4.2 IA como Consultor Financeiro Pessoal
Pessoas estão compartilhando com IAs seus salários, dívidas, investimentos e objetivos financeiros. A IA se torna uma espécie de planejador financeiro informal, com acesso a informações que normalmente só um contador ou consultor de confiança teria.
4.3 IA como Confidente e Companheiro
Aplicativos como Replika e Character.ai criaram um mercado de “companheiros virtuais” onde usuários desenvolvem laços emocionais com entidades de IA. As interações revelam preferências pessoais, orientação sexual, fantasias, traumas e vulnerabilidades. Do ponto de vista da LGPD, estamos falando de dados pessoais sensíveis (art. 5º, II) sendo tratados frequentemente sem base legal adequada.
4.4 IA como Médico de Primeiro Atendimento
A prática de pesquisar sintomas na internet não é nova, mas agora usuários descrevem sintomas detalhados para IAs e recebem “diagnósticos” e sugestões de tratamento. Além dos riscos óbvios à saúde, os dados de saúde compartilhados são sensíveis e, se expostos, podem afetar empregabilidade, seguros e relações pessoais.
5. O Enquadramento Jurídico: LGPD, Marco Civil e Regulamentação da IA
5.1 LGPD e o Tratamento de Dados por IAs
A Lei Geral de Proteção de Dados (Lei 13.709/2018) estabelece que o tratamento de dados pessoais deve observar princípios como finalidade, adequação, necessidade e transparência. Quando uma plataforma de IA coleta, armazena e processa as interações dos usuários, ela está realizando tratamento de dados pessoais e, frequentemente, de dados sensíveis.
| Bases Legais Aplicáveis (Art. 7º e 11 da LGPD) Para dados pessoais comuns: consentimento (art. 7º, I), execução de contrato (art. 7º, V) ou legítimo interesse (art. 7º, IX). Para dados sensíveis (saúde mental, orientação sexual, convicções): apenas consentimento específico e destacado (art. 11, I) ou hipóteses restritas do art. 11, II. A maioria das plataformas de IA utiliza termos de uso genéricos que dificilmente atendem ao requisito de consentimento “específico e destacado” exigido para dados sensíveis. |
5.2 O Dever de Sigilo do Advogado e a IA
O Estatuto da Advocacia (Lei 8.906/1994) e o Código de Ética e Disciplina da OAB impõem ao advogado o dever de sigilo profissional. O art. 7º, II, do Estatuto garante a inviolabilidade do escritório, dos dados e das comunicações. Mas o que acontece quando o advogado voluntariamente insere dados de clientes em uma plataforma de IA sediada em outro país?
| Exemplo Prático — Transferência Internacional de Dados Um advogado brasileiro usa uma IA americana para revisar um contrato de um cliente. Os dados do contrato são processados em servidores nos EUA. Isso configura transferência internacional de dados pessoais (art. 33 da LGPD), que só é permitida em hipóteses específicas. Além disso, o advogado pode estar violando o sigilo profissional ao compartilhar informações confidenciais com um terceiro (a empresa de IA) sem autorização do cliente. |
5.3 Regulamentação da IA no Brasil
O Projeto de Lei 2338/2023 (Marco Legal da IA), que tramita no Congresso Nacional, busca estabelecer regras para o desenvolvimento e uso de sistemas de inteligência artificial no Brasil. Entre os pontos mais relevantes para o tema deste artigo estão: a classificação de sistemas de IA por nível de risco, a obrigatoriedade de avaliação de impacto para sistemas de alto risco, direitos dos usuários afetados por decisões automatizadas e a exigência de transparência sobre como os dados são utilizados.
No âmbito específico da advocacia, o Conselho Federal da OAB já emitiu orientações sobre o uso de IA por advogados, e diversas seccionais têm promovido eventos e comissões dedicadas ao tema — reconhecendo que a regulamentação é urgente e que a advocacia não pode ficar à margem dessa discussão.
6. Os Riscos Concretos: Quando o Espelho Quebra
6.1 Vazamento de Dados e Exposição
Em março de 2023, um bug no ChatGPT exposi brevemente títulos de conversas de outros usuários. O incidente foi contido rapidamente, mas demonstrou que nenhuma plataforma é imune a falhas. Para advogados, um vazamento pode significar exposição de estratégias processuais, dados de clientes e informações privilegiadas.
6.2 Uso de Dados para Treinamento
Muitas plataformas, por padrão, utilizam as conversas dos usuários para treinar e aprimorar seus modelos. Isso significa que o conteúdo de suas interações pode ser incorporado ao “conhecimento” da IA e, indiretamente, influenciar respostas dadas a outros usuários. É fundamental verificar e ajustar as configurações de privacidade de cada plataforma.
6.3 Manipulação e Engenharia Social
Um perfil comportamental detalhado é uma ferramenta poderosa para engenharia social. Se um agente malicioso tiver acesso ao “perfil de IA” de um advogado, poderá criar ataques de phishing altamente personalizados, simular comunicações críveis de clientes ou colegas e explorar vulnerabilidades emocionais identificadas nas conversas.
6.4 Dependência e Erosão de Competências
Há um risco sutil, mas significativo, na delegação excessiva à IA: a erosão gradual de competências fundamentais. O advogado que sempre pede à IA para redigir peças pode, com o tempo, perder a habilidade de construção argumentativa autônoma. O estudante que usa IA para “entender” matérias pode nunca desenvolver o raciocínio jurídico profundo.
7. Boas Práticas: Usando a IA com Consciência e Responsabilidade
7.1 Para Advogados e Escritórios
Política Interna de Uso de IA: Todo escritório deve ter uma política clara sobre quais ferramentas de IA são aprovadas, quais tipos de dados podem ser inseridos e quais procedimentos de anonimização devem ser adotados.
Anonimização Prévia: Antes de inserir qualquer conteúdo em uma IA, substituir nomes, CPFs, números de processos e outros identificadores por dados fictícios. Isso preserva o sigilo sem sacrificar a utilidade da ferramenta.
Revisão de Termos de Uso: Ler efetivamente os termos de uso e políticas de privacidade das plataformas. Verificar se os dados são usados para treinamento, onde são armazenados e quais são os mecanismos de exclusão.
Preferência por Planos Corporativos: Versões empresariais de ferramentas de IA (como ChatGPT Enterprise ou Claude Teams) geralmente oferecem garantias adicionais de privacidade, incluindo a não utilização de dados para treinamento.
Treinamento da Equipe: Capacitar todos os membros do escritório sobre os riscos e boas práticas no uso de IA. O elo mais fraco da segurança é sempre o humano.
7.2 Para Usuários em Geral
Consciência dos Limites: A IA não é médico, psicólogo, advogado ou consultor financeiro. Ela pode ser uma ferramenta complementar valiosa, mas nunca deve substituir profissionais qualificados em áreas que envolvem saúde, liberdade, patrimônio ou direitos fundamentais.
Higiene de Dados: Revisar periodicamente o histórico de conversas com IAs. Excluir conversas que contenham dados sensíveis. Desativar funcionalidades de memória quando não forem necessárias.
Diversificação: Não concentrar toda a vida digital em uma única plataforma de IA. Quanto mais dados uma única empresa tem sobre você, maior o risco em caso de incidente.
8. O Futuro: Para Onde Caminhamos?
A tendência é inequívoca: as IAs se tornarão cada vez mais personalizadas, mais integradas ao nosso cotidiano e mais “conhecedoras” de quem somos. Agentes de IA que atuam de forma autônoma, acessam e-mails, calendários, documentos e redes sociais já estão em desenvolvimento. O “espelho digital” de hoje será o “gêmeo digital” de amanhã.
Nesse cenário, a regulamentação é fundamental, mas não suficiente. Precisamos desenvolver uma cultura de privacidade digital que vá além do compliance. Precisamos de profissionais — especialmente advogados — que entendam profundamente as implicações éticas, jurídicas e sociais da IA, e que possam orientar empresas, governos e cidadãos nessa transição.
A caricatura que abre este artigo não é apenas uma curiosidade tecnológica. É um aviso. Se a IA já sabe o suficiente sobre você para desenhá-lo, imagine o que mais ela pode fazer com esse conhecimento.
Enfim
Vivemos um paradoxo fascinante: as mesmas ferramentas que nos tornam mais produtivos, mais conectados e mais informados são as que mais coletam, processam e armazenam nossos dados mais íntimos. A inteligência artificial não é boa nem má — é poderosa. E poder, sem responsabilidade, é risco.
Para o mundo jurídico, o desafio é duplo: proteger os dados dos clientes enquanto se beneficia da tecnologia, e regular a IA sem sufocar a inovação. Não há respostas fáceis, mas há um caminho claro: conhecimento, transparência e ética.
A próxima vez que você abrir uma ferramenta de IA, lembre-se: você não está apenas fazendo uma pergunta. Você está contando um pouco mais sobre quem você é. A questão é: você sabe para quem está contando?
Gustavo Rocha
Consultor em Gestão, Tecnologia e Marketing Jurídico
Professor | Palestrante | Coordenador de Grupos de Estudo ESA/RS