O Brasil e seu compromisso regulatório com a IA

O Senado brasileiro aprovou o Projeto de Lei 2338/23, uma iniciativa que busca estabelecer um marco regulatório para inteligência artificial (IA) sob princípios de “governança responsável”. A mudança, potencialmente um modelo para a América Latina, levantou expectativas e preocupações sobre seu escopo e implicações.

A promessa regulatória em um campo de batalha desigual

Por: Gabriel E. Levy B.

A regulamentação da IA está avançando entre conquistas e desafios em nível global. A Europa está liderando com seu Regulamento de IA, que classifica riscos e exige transparência, embora enfrente pressão de grandes empresas de tecnologia que buscam suavizar suas regras.

Na Ásia, a China adota controles estatais rígidos, mas estes priorizam a supervisão do governo sobre a proteção dos direitos individuais.

Em contraste, os Estados Unidos carecem de uma estrutura federal, deixando as empresas privadas definirem as regras em um ambiente regulatório fragmentado.

Casos como o Cambridge Analytica expuseram os riscos da autorregulação. Essas experiências globais ressaltam a necessidade urgente de estruturas regulatórias fortes para garantir que a IA atenda ao interesse público, em vez de reforçar os interesses corporativos ou estatais.

O Canadá, pioneiro em direitos digitais, foi um dos primeiros países a desenvolver uma Declaração de Impacto Algorítmico para avaliar os riscos dos sistemas automatizados no setor público.

O Reino Unido, com sua Estratégia Nacional de IA, busca promover a inovação ao mesmo tempo em que aborda preocupações éticas, embora não tenha uma estrutura regulatória vinculativa como a europeia.

A Austrália, por sua vez, implementou um Plano Nacional de IA focado em princípios de transparência e justiça, mas enfrenta críticas por sua supervisão limitada de aplicativos comerciais.

Na Coreia do Sul, a regulamentação avança com uma abordagem proativa: sua Lei de Dados Pessoais, revisada em 2020, é considerada uma das mais rígidas da Ásia, enquanto o governo promove padrões éticos para o desenvolvimento e uso da IA, equilibrando a inovação tecnológica com a proteção do cidadão.

Histórico na América Latina e no Brasil

A América Latina percorreu um caminho desigual na regulamentação tecnológica. Da Lei de Proteção de Dados Pessoais no México (2010) à Lei Geral de Proteção de Dados (LGPD) no Brasil (2018), a região tem buscado equilibrar a inovação com os direitos dos cidadãos. No entanto, a influência corporativa e as restrições estruturais restringiram o escopo desses regulamentos.

No Brasil, o Marco Civil da Internet (2014) marcou um ponto de inflexão, garantindo a neutralidade da rede e a privacidade como direitos fundamentais.

Posteriormente, a LGPD colocou o país como líder regional em proteção de dados. No entanto, a ascensão da IA criou novos desafios, especialmente em um ambiente em que as plataformas digitais estão influenciando o debate público.

Em resposta, o governo criou comissões como a CJSUBIA para enfrentar esses desafios, embora os interesses corporativos tenham complicado o consenso.

Projeto de Lei 2338/23

O PL 2338/23 pretende ser um marco abrangente para a regulação da IA no Brasil, abordando setores como saúde, transporte e moderação de conteúdo online.

No entanto, desde suas primeiras versões, o projeto enfrentou tensões entre atores-chave: governo, academia, organizações civis e setor de tecnologia.

Durante as audiências públicas, a influência da big tech foi evidente. Rafael Zanatta, da Data Privacy Brasil, destacou que “as diretrizes trabalhistas que visavam proteger os trabalhadores de sistemas automatizados foram eliminadas”. De acordo com o Derechos Digitales, 31% dos participantes representavam o setor privado, enquanto a sociedade civil mal chegava a 19%. Esse desequilíbrio refletia um viés em relação aos interesses corporativos.

 A exclusão de sistemas de alto risco: progresso ou retrocesso?

Um dos pontos mais polêmicos do PL 2338/23 é a exclusão dos sistemas automatizados de moderação e recomendação de conteúdo da lista de alto risco.

Originalmente, o projeto reconhecia esses sistemas como perigosos por causa de sua capacidade de manipular comportamentos e limitar a diversidade no debate público. No entanto, o artigo 77 do projeto estabelece que a regulamentação dessas questões exigirá legislação específica, deixando seu impacto na democracia sem supervisão imediata.

Especialistas como Shoshana Zuboff, em The Age of Surveillance Capitalism, alertam que esses sistemas, projetados para maximizar a interação, podem priorizar o lucro sobre o bem-estar coletivo.

Esse vácuo regulatório levanta questões cruciais sobre transparência e responsabilidade em um contexto em que as plataformas têm um impacto excessivo na opinião pública.

Exemplos globais: lições para o Brasil

O caso brasileiro encontra paralelos em outros países.

Na Europa, o Regulamento de IA busca regular sistemas de alto risco, incluindo moderação de conteúdo, mas enfrenta resistência de gigantes da tecnologia que buscam reduzir o impacto das regulamentações.

Nos Estados Unidos, a ausência de um marco regulatório permitiu que empresas como Meta e Google operassem sem restrições claras, gerando escândalos como o Cambridge Analytica, onde a manipulação de dados influenciou os processos eleitorais.

Esses casos ressaltam os riscos de atrasar regulamentações eficazes.

Para o Brasil, a exclusão de sistemas-chave de alto risco pode transformar o país em um campo de testes para experimentos tecnológicos que priorizam benefícios econômicos em detrimento dos direitos dos cidadãos.

O impacto nos cidadãos: entre a vigilância e a desinformação

A exclusão dos sistemas automatizados de moderação afeta diretamente os cidadãos brasileiros, deixando desmarcada a circulação de informações em ambientes digitais.

Esse vácuo regulatório facilita a disseminação da desinformação e da polarização, fenômenos já visíveis em eventos como as eleições de 2018 e 2022.

Organizações como a Access Now destacam a necessidade de supervisionar esses sistemas sob princípios de transparência e responsabilidade. Sem controles efetivos, as plataformas podem consolidar dinâmicas que reforçam as desigualdades sociais e corroem a confiança do público.

Em conclusão, a aprovação do PL 2338/23 no Senado brasileiro representa um marco na regulamentação da IA, mas também destaca desafios significativos. A influência do setor privado e a exclusão dos principais sistemas de alto risco levantam questões sobre o equilíbrio entre inovação e direitos dos cidadãos. À medida que o projeto avança para a Câmara dos Deputados, o Brasil tem a oportunidade de liderar na América Latina, aprendendo com exemplos globais e construindo um marco regulatório que priorize a justiça social e a democracia. O futuro da IA no país dependerá de sua capacidade de resistir a pressões externas e garantir que a tecnologia sirva ao bem comum.