A polêmica aplicação da LGPD às plataformas de IA
Artigo publicado originalmente na ConJur
Por: Flávia Pietri
A Lei Geral de Proteção de Dados (LGPD), sancionada em 2018, estabelece diretrizes rigorosas para o tratamento de dados pessoais no Brasil. Com o avanço das tecnologias de inteligência artificial (IA), a aplicação da LGPD a essas ferramentas tem gerado intensos debates no meio jurídico e acadêmico.
Recentemente, um levantamento publicado pela Fundação Getulio Vargas (FGV) destacou as complexidades e os desafios que surgem na interseção entre a proteção de dados e o desenvolvimento de soluções baseadas em IA, apontando que nenhum dos sistemas utilizados no Brasil estariam adequados a esta legislação.
Foram analisadas as sete principais plataformas utilizadas no Brasil: ChatGPT, Gemini, Claude, Copilot, Grok, DeepSeek e Meta AI.
Um dos responsáveis pela pesquisa, o professor Luca Belli avaliou que “o cenário das ferramentas de IA para privacidade varia do baixo ao assustador”, com descumprimentos de requisitos básicos da LGPD.
Um dos principais pontos de controvérsia é a definição do que constitui “dados pessoais” no contexto da IA. As empresas que utilizam algoritmos de aprendizado de máquina frequentemente processam grandes volumes de dados, que podem incluir informações pessoais, mas também dados anônimos ou agregados. A FGV aponta que a interpretação da LGPD deve ser adaptada para considerar as especificidades da IA, evitando uma aplicação excessivamente rígida que possa inibir a inovação tecnológica.
Outro ponto polêmico refere-se à extraterritorialidade da LGPD, uma vez que se aplica a qualquer operação de tratamento de dados pessoais realizada por pessoas ou empresas que estejam localizadas no Brasil, independentemente de onde os dados estejam sendo processados. Além disso, ela também se aplica a entidades que, mesmo fora do Brasil, tratem dados de indivíduos localizados no território brasileiro.
Este aspecto tem sido calorosamente debatido, considerando que para alguns é inviável que se estabeleça a necessidade de uma empresa prestadora de serviços online estar adequada a todos os países em que seus titulares possam acessá-la. E, de fato, o tema é polêmico.
Mas é importante ponderar que esse nível de exigência de adequação à legislação dos países em que se estabeleçam filiais, já existe quando analisamos as regras de compliance de empresas e grupos internacionais. Importante reforçar ainda que, justamente em virtude dessa necessidade, canais de e-commerce planejam estrategicamente em quais países seus domínios podem ser acessados, para que justamente possam ter previsibilidade acerca das legislações a quais estarão subordinados.
Outro aspecto relevante é a questão da base legal que fundamente o tratamento de dados, considerando que as plataformas de IA não possuem a capacidade de filtrar a entrada de dados sobre os quais tenha autorização para seu uso. A utilização da base legal do consentimento inviabilizaria essa possibilidade, considerando a dificuldade de sua obtenção de forma clara e informada.
O estudo da FGV sugere que as empresas de IA devem desenvolver mecanismos transparentes que permitam aos usuários entender como seus dados estão sendo utilizados, promovendo uma cultura de responsabilidade e confiança e a sua responsabilidade quanto à utilização de dados de terceiros nas plataformas.
Importância do diálogo contínuo
Como se vê, a complexidade do tema se destaca no âmbito da responsabilidade dessas plataformas sobre os dados disponibilizados pelos seus usuários, considerando que estes podem utilizar dados que não lhe pertencem. E mais ainda: não possuem qualquer autorização ou consentimento para seu uso ou outra base legal prevista na LGPD. Isso está previsto no regramento do Projeto de Lei (PL) do Novo Código Civil. Um PL que tratava especificamente sobre a responsabilidade dessas plataformas, incluindo as redes sociais, foi arquivado recentemente.
A FGV ainda destaca a necessidade de um diálogo contínuo entre reguladores, empresas de tecnologia e especialistas em proteção de dados. A criação de diretrizes específicas e efetivas para a aplicação da LGPD em contextos de IA pode ajudar a equilibrar a proteção dos direitos dos titulares de dados com a promoção da inovação. A colaboração entre esses atores é essencial para garantir que a legislação acompanhe a rápida evolução das tecnologias.
Por fim, a polêmica em torno da aplicação da LGPD às plataformas de IA reflete um desafio maior: como regular um campo em constante mudança sem sufocar a inovação. À medida que o debate avança, é fundamental que as empresas se mantenham informadas sobre as implicações legais de suas práticas de tratamento de dados e que os legisladores considerem as particularidades da IA ao elaborar normas que visem proteger os direitos dos cidadãos. A busca por um equilíbrio entre proteção e inovação será crucial para o futuro da tecnologia no Brasil.
*Flávia Pietri é sócia da área de Direito Consultivo Empresarial e especialista em Direito Digital e Proteção de Dados do Nascimento e Mourão Advogados.