top of page

O uso seguro da Inteligência Artificial sob a ótica da LGPD

ree

O uso de ferramentas de Inteligência Artificial (IA), como o ChatGPT e o Gemini, tem se tornado uma prática cada vez mais comum no dia a dia operacional das empresas, sempre com o objetivo de alcançar maior eficiência nos resultados e automatizar processos analíticos. Contudo, essa prática precisa caminhar lado a lado com a conformidade jurídica, as políticas de compliance e a proteção de dados pessoais. 

 

Em linha com a Lei Geral de Proteção de Dados (LGPD), é possível utilizar ferramentas de IA para o tratamento de dados, desde que existam bases legais adequadas, medidas técnicas e organizacionais robustas e contratos específicos com o fornecedor da tecnologia. Em termos simples, utilizar uma IA para processar dados é como terceirizar uma análise: é permitido, mas exige um propósito claramente definido, o mínimo necessário de dados e controles rigorosos. 

 

Para maior segurança e conformidade, recomenda-se que o uso se restrinja às versões corporativas pagas, como o ChatGPT Business ou Enterprise, e nunca a contas pessoais ou gratuitas. As versões corporativas, além de não utilizarem os dados dos usuários para treinar modelos, contam com criptografia em trânsito e em repouso e certificação SOC 2, o que assegura padrões elevados de proteção da informação.  

 

Do ponto de vista jurídico, o tratamento de dados com IA deve estar amparado por uma base legal legítima, como o cumprimento de obrigação legal ou regulatória, ou o legítimo interesse, desde que, neste último caso, realizado o teste de balanceamento e garantida a transparência ao titular por meio do aviso de privacidade. Em situações de maior risco, ou quando adotada a base legal do legítimo interesse, é recomendável, ainda, a elaboração do Relatório de Impacto à Proteção de Dados (RIPD/DPIA), conforme previsto na LGPD. 

 

O assunto, apesar de relativamente recente, já chama a atenção, por exemplo, da Agência Nacional de Proteção de Dados (ANPD), que por meio de estudo técnico publicado, reconheceu que essas tecnologias trazem inovações relevantes, mas também desafios significativos à proteção de dados pessoais. A ANPD destaca que o uso da IA generativa deve observar os princípios da LGPD e que o desenvolvimento dessas ferramentas deve ocorrer de forma ética e responsável, enfatizando a importância de documentação técnica e não técnica detalhada, capaz de demonstrar as práticas de proteção adotadas, garantir a rastreabilidade do tratamento e permitir o exercício dos direitos dos titulares. 

 

Em outras palavras, as boas práticas de proteção de dados devem estar presentes também no uso de ferramentas de Inteligência Artificial. É essencial que as organizações adotem o princípio da minimização de dados, submetendo à IA apenas as informações estritamente necessárias, além de buscar, sempre que possível, a anonimização ou pseudonimização dos documentos analisados. Essa postura reduz riscos e assegura maior conformidade com a legislação, especialmente quando se trata de dados pessoais ou sensíveis. 

 

Além disso, é fundamental investir na capacitação das equipes e na criação de uma política interna específica sobre o uso de IA, com regras claras sobre limites, responsabilidades e padrões de segurança, fortalecendo a governança e demonstrando o compromisso da empresa com um uso ético e responsável da tecnologia. 

 

Em resumo, a Inteligência Artificial pode ser uma grande aliada na rotina empresarial, desde que utilizada com responsabilidade jurídica, técnica e ética. O equilíbrio entre inovação e proteção de dados é o caminho para aproveitar o potencial da IA com segurança, transparência e credibilidade. 


Elaborado por: Thiago Toscano e Antônio Valença

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
bottom of page