Negociações do governo com empresas e ala bolsonarista ameaçam PL da Inteligência Artificial
Esta é uma semana decisiva para o futuro da regulação da Inteligência Artificial no Brasil. Senadores e ministérios negociam a nova versão do Projeto de Lei 2.338 de 2023, que regula o tema. As discussões tentam chegar a um novo acordo depois que a Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado tentou votar o relatório do senador Eduardo Gomes (PL-TO) mas não teve sucesso devido ao lobby de empresas de tecnologia, da Confederação Nacional da Indústria (CNI) e da resistência de forças de direita e extrema direita.
O último texto apresentado por Gomes lista sistemas de IA de risco excessivo e alto e cria obrigações correspondentes de acordo com cada nível. Entre as obrigações estão avaliações de impacto algorítmico, medidas de governança como prevenção de vieses discriminatórios e viabilizar a explicabilidade dos sistemas. A proposta elenca direitos dos usuários destes sistemas e estabelece formas de responsabilização de danos causados por sistemas de IA, além de boas práticas de governança.
Empresas de tecnologia vêm pressionando senadores e o governo para reduzir obrigações tentando usar o nada novo discurso de que regras sobre tecnologias digitais impedem a inovação e as atividades econômicas que fazem uso dessas tecnologias. A CNI somou-se às críticas e incluiu outras, buscando também retirar as proteções aos riscos a trabalhadores incluídas no texto. Plataformas digitais e segmentos do bolsonarismo elegeram como alvo os dispositivos que criam obrigações para redes sociais sobre os conteúdos disponibilizados e recomendados por sistemas automatizados.
De outro lado, entidades da sociedade civil de diferentes segmentos, pesquisadores e entidades de trabalhadores de diferentes segmentos vêm apontando a necessidade de uma regulação que garanta direitos e o desenvolvimento de uma IA responsável, evitando efeitos negativos sobre a sociedade e protegendo os segmentos que podem ser afetados negativamente pela introdução e uso dos sistemas de IA.
Nas negociações em curso com o relator, senadores e até mesmo integrantes do governo buscam criar exceções e flexibilizações na lei para enfraquecê-la e tirar sua efetividade. Uma das jogadas é ampliar o rol de exceções, para que as obrigações e os mecanismos da lei só valham para um conjunto limitado de sistemas de IA de alto risco. Assim, a lei pode ter mecanismos avançados, obrigações necessárias aos agentes da cadeia (como empresas que atuam não só no desenvolvimento, mas na adoção desses sistemas) e contar com direitos e proteções à sociedade. Porém, se tais regras forem válidas somente para alguns, a lei correrá grande risco de ter pouca efetividade e não atacar os problemas nos abusos do uso dessa tecnologia.
Um segundo movimento é o de impedir que novos sistemas de IA possam ser designados como de alto risco. O último texto do relator Eduardo Gomes previa que o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) teria a prerrogativa de “regulamentar a classificação da lista dos sistemas de IA de alto risco, bem como identificar novas hipóteses levando em consideração à probabilidade e à gravidade dos impactos adversos sobre pessoa ou grupos afetados”. O relatório elencava um conjunto de critérios, como a implementação em larga escala, a produção de efeitos jurídicos relevantes e impactar negativamente o acesso a serviços públicos, o alto potencial de danos materiais ou morais e efeitos negativos sobre segmentos vulneráveis, entre outros.
Com esse dispositivo, o PL adotou prática considerada fundamental em regulação de tecnologias: possibilitar que os marcos legais não fiquem desatualizados pelo dinamismo do desenvolvimento deste setor. Um dos itens que ganha força na negociação é manter a lista de sistemas de alto risco como taxativa e não exemplificativa. Assim, a lei, se aprovada, só produziria efeitos sobre estes, e não seria “à prova de futuro”. Com isso, os setores contrários à lei buscam fazer com que esta já nasça desatualizada e que novos sistemas fiquem fora da norma, na prática.
Uma “novidade” nas negociações atuais é a mudança de posição do governo federal. Mesmo que de forma discreta, o governo vinha atuando nos bastidores para apoiar o projeto, em uma curiosa aliança com um senador do PL, com papel proeminente no governo Bolsonaro, que demostrava abertura a uma regulação moderna e equilibrada entre estímulos ao desenvolvimento e proteção da sociedade. Nos últimos dias, entretanto, o governo passou a reforçar a posição pela desidratação do texto nas jogadas listadas acima.
A mudança de posição veio acompanhada da entrada nas negociações de ministérios da área econômica e da indústria e comércio, possivelmente pautados pelos setores empresariais que têm atuado para bloquear ou enfraquecer o PL. Enquanto o governo tensionava para um modelo mais protetivo e responsável, as regras caminhavam para colocar o Brasil como referência na regulação do tema.
A posição difere do protagonismo do Brasil em impulsionar a agenda da governança de IA durante sua presidência do G20. Em seu discurso na 2ª reunião de Líderes do G20, no último dia 18, o presidente Luiz Inácio Lula da Silva afirmou que é chave a “construção de uma governança que maximize as oportunidades e mitigue os riscos da Inteligência Artificial”. Estranhamente, o governo adota outra postura à agenda do presidente Lula. E ajuda a desmontar uma proposta que poderia colocar o Brasil como referência global no tema.
*Jonas Valente é pesquisador do Instituto de Internet de Oxford e integrante do Diracom – Direito à Comunicação e Democracia
**Helena Martins é professora da Universidade Federal do Ceará (UFC) e integrante do Diracom – Direito à Comunicação e Democracia
***Este é um artigo de opinião e não necessariamente representa a linha editorial do Brasil do Fato.
Fonte: BdF Bahia