Novos tempos

Senado discutirá marco regulatório para inteligência artificial

Projeto criado por juristas e apresentado por Rodrigo Pacheco, apresenta a necessidade de controle da inteligência artificial

Edilson Rodrigues/Agência Senado
Edilson Rodrigues/Agência Senado
O PL "estabelece normas gerais" sobre as novas tecnologias e impõe responsabilidade aos desenvolvedores

São Paulo – O presidente do Senado, Rodrigo Pacheco (PSD-MG), protocolou nesta semana o Projeto de Lei 2338/23, que dispõe sobre um marco regulatório para o uso de inteligência artificial (IA). O PL “estabelece normas gerais” sobre as novas tecnologias e impõe responsabilidade aos desenvolvedores. A proposta prevê multas, por exemplo, para o uso indevido de dados pessoais. A matéria é fruto de relatório final de uma comissão de juristas composta em 2022 para avaliar o tema e aglutinar outros projetos correlatos.

Os mecanismos de IA, em especial os chamados generativos, que imitam linguagem e criações humanas, são alvos de críticas em todo o mundo. Ao mesmo tempo que seu uso pode trazer benefícios e agilidade para processos importantes, a ausência do fator humano preocupa. Isso porque estas ferramenas constroem suas criações com simples encadeamento lógico. Não há preocupação ética, ou mesmo compromisso com a verdade. Estes pontos podem levar, inclusive, à utilização destes mecanismos por pessoas maliciosas.

Poder aos maliciosos

Este uso malicioso, inclusive, pode ser mascarado como imparcial. No fim, para além do usuário, estes mecanismos são programados por pessoas e carregam suas estruturas problematicas. É o caso do racismo, por exemplo. Cientistas enxergam nestes mecanismos uma espécie de propagação do racismo estrutural, uma nova roupagem, o racismo algorítmico.

Ao mesmo tempo, as empresas do setor, em particular as big techs, utilizam deste verniz para impor seu discurso, suas visões políticas, como únicas. A falsidade da suposta imparcialidade destes mecanismos ganhou força recentemente com o posicionamento aberto de empresas como o Google, em alinhamento com a extrema direita. A empresa vem apostando no ataque àqueles que buscam responsabilizar as big techs por crimes digitais através do PL das Fake News.

Questão global

Diante das questões problemáticas, pesquisadores e juristas de todo o mundo estão debruçados para regulamentar essas tecnologias. Alguns países, inclusive, já aplicam sanções às empresas responsáveis. É o caso da Itália, que baniu e aplicou multas milionárias à OpenAI, responsável pelo ChatGPT, por uso indevido de dados pessoais.

Outras nações, como China e Estados Unidos, avançam em uma regulamentação firme. Ontem, a vice-presidente dos Estados Unidos, Kamala Harris, defendeu a regulação após encontro com empresários do setor. Harris disse que “as empresas de tecnologia têm a responsabilidade de fazer com que seus produtos sejam seguros”.

O PL brasileiro

Então, diante dos riscos, o projeto de marco regulatório da inteligência artificial oriundo do grupo de juristas brasileiros prevê, logo em seu segundo artigo, fundamentos para essas tecnologias no país. Entre eles, “a centralidade da pessoa humana; respeito aos direitos humanos e aos valores democráticos; livre desenvolvimento da personalidade; proteção ao meio ambiente; igualdade; não discriminação”.

O texto traz como base os preceitos da Lei Geral de Proteção de Dados Pessoais (LGPD), de 2018. Então, prevê multas de até R$ 50 mil para empresas que violem seus preceitos. Além disso, a proposta dialoga com o PL das Fake News ao prever proteção especial a crianças e adolescentes.

Assim versa trecho do PL: “Os sistemas de inteligência artificial que se destinem a grupos vulneráveis, tais como crianças, adolescentes, idosos e pessoas com deficiência, serão desenvolvidos de tal modo que essas pessoas consigam entender seu funcionamento e seus direitos em face dos agentes de inteligência artificial”.

Por fim, a matéria ainda exige a criação de um órgão ligado à Presidência da República para a fiscalização do cumprimento do texto legal.

Leia sobre IA na RBA: