Tecnologia e direitos

Como ficam os direitos humanos nas regulações da Inteligência Artificial e das plataformas

Debate ‘Dados, Desinformação e Democracia’, realizado em São Paulo, avalia como os avanços tecnológicos devem ser encarados pelos projetos de leis de caráter regulatório

Equipe Fundação Heinrich Böll
Equipe Fundação Heinrich Böll
Deputado Orlando Silva: “Há uma resistência muito grande (de fundamentalistas) em debater a exigência da transparência nas plataformas”

São Paulo – Episódios de ameaças a governos democráticos, como os atos golpistas de 8 janeiro no Brasil, acenderam o alerta da classe política para o crescimento vertiginoso do discurso de ódio e a desinformação. Ao mesmo tempo, os usos da Inteligência Artificial ficaram populares, com incentivos das empresas. Diante desses temas que se sobrepõem, como ficam os direitos dos cidadãos? 

Para refletir e debater caminhos e desafios sobre o tema, a Fundação Heinrich Böll e o Instituto Data Privacy realizaram o evento público ‘Dados, desinformação e democracia’, em São Paulo, com as participações de Jan Philipp Albrecht, copresidente da Fundação Böll e ex-eurodeputado relator da Lei Geral de Proteção de Dados (GDPR) da União Europeia; Orlando Silva, deputado federal do PCdoB de São Paulo e relator do PL 2630, conhecido como PL das Fake News; Manuela D’Avila, jornalista, ex-deputada e fundadora do Instituto E se Fosse Você?; e Bruno Bioni, advogado e diretor do Instituto Data Privacy Brasil. A mediação foi feita pela jornalista Victória Damasceno.

O evento foi dividido em três momentos temáticos: o primeiro, sobre a regulação das plataformas e a democracia; o segundo, a regulação da Inteligência Artificial; e o terceiro, as tecnologias e a redução das desigualdades.

Plataformas digitais

O deputado Orlando Silva, que participou do debate por videoconferência a partir de Brasília, abriu a discussão resumindo a situação da regulação das plataformas digitais no Brasil. “Há uma resistência muito grande (de fundamentalistas) em debater a exigência da transparência nas plataformas”, disse. Mas destacou que há avanços no sentido de garantir a liberdade de expressão.

Por sua vez, Jan Philipp Albrecht disse que as regulamentações da proteção de dados pessoais e o uso das plataformas, implantadas nos últimos anos na União Europeia, ainda tem dificuldades na implementação para garantir a defesa de direitos fundamentais para dentro das tecnologias.  “Estamos num movimento constante de regulamentação das plataformas, a proteção de dados é apenas uma das bases para construir os alicerces para construir essas estruturas”, afirma.

Bruno Bioni alertou que já existem leis e regulamentações brasileiras como o Marco Civil da Internet que não é respeitado pelas empresas de telecom até hoje no quesito da neutralidade da rede, por exemplo. Para Bioni, a discussão de regulamentação das plataformas deve ser afirmativa e deve estimular a transparência.

Por fim, Manuela D’Ávila destacou que regulamentações de plataformas não conseguem reduzir o discurso de ódio e as manifestações de violência contra as mulheres que atuam na política. As plataformas, afirma, amplificam as ameaças de morte e de estupro, expulsando as mulheres da política.

Inteligência Artificial

No segundo bloco, os participantes foram provocados a refletirem sobre as tentativas de regulação da IA que estão sendo debatidas atualmente, como a feita pela União Europeia (leia abaixo) e no Brasil, para proteger os direitos humanos de decisões automatizadas, controladas pelas Big Techs.

Para os debatedores, uma legislação sobre IA precisa garantir a proteção dos direitos fundamentais diante da sua contínua evolução, já que a fiscalização está sujeita às pressões políticas e econômicas. “Os políticos precisam liderar este processo para que ele de fato aconteça de forma a assegurar que os valores fundamentais e constitucionais estejam dentro da regulação”, alerta Albrecht. E destaca que o Brasil, por sua importância geopolítica, poderá pautar este debate globalmente, defendendo a proteção dos direitos humanos e garantias de ações anti-discriminatórias e antirracistas.

Bioni, por sua vez, defendeu o debate transparente com a população para pactuar os limites intransponíveis que garantam esses direitos fundamentais, ao mesmo tempo que garantam o uso de dados para inovação em políticas públicas.

Orlando Silva avalia que o PL da IA brasileiro, baseado na estrutura de classificação de riscos estabelecida na Lei de Inteligência Artificial da União Europeia (AI ACT), tem potencial para garantir direitos, combater a desigualdade e fomentar a inovação tecnológica nacional. “Sou otimista. O PL que está no Senado já apresenta muitos avanços para garantir a transparência, a governança (da IA) e para estabelecer regras protetivas aos direitos humanos”, afirmou.

Manuela pontuou sobre o descompasso entre a urgência das inúmeras violências potencializadas pela IA e a efetivação da regulação protetiva. E questionou ainda quais são os direitos que serão protegidos na regulação brasileira: a liberdade de expressão ou a dignidade humana? “Nossa doutrina (legal) é inspirada na Europa (pela dignidade humana), mas o povo tem o norte da liberdade de expressão acima de tudo (doutrina dos EUA). Há essa dissociação entre visões no país.” Tal lacuna se apresenta para políticos no Congresso divididos entre os influenciados por lobbies das empresas e outras que ignoram o funcionamento das plataformas digitais.

Democracia e desigualdade

Ao final, os participantes foram instigados a refletir sobre formas de usar IA e as plataformas para reduzir as desigualdades sociais e fortalecer democracias. Para Jan Philipp, o uso das tecnologias como IA podem ser aplicados na defesa dos direitos fundamentais, ampliando e fortalecendo a organização dos cidadãos em escala global, respeitando a diversidade local.

Leia também: Inteligência artificial utiliza base de dados que refletem preconceitos e desigualdades

Bioni indica que o uso de IA para reduzir desigualdade no Brasil deverá ser pensado a partir das políticas sociais previstas na Constituição brasileira e cita a estrutura do Sistema Único de Saúde (SUS) como exemplo dessa aplicação, que prevê acesso universal e tem controle social.

Manoela, por sua vez, coloca que as plataformas digitais tiveram a importância de aproximar grupos que estavam dispersos com pautas em comum, caso das feministas. Mas mostra que essas tecnologias são intermediadas pelo capital, que impõe sua agenda predatória. Para ela, só pressão política das pessoas, organizada é o caminho para enfrentar o aumento da desigualdade e as ameaças à democracia.

Lei de Inteligência Artificial – AI ACT

União Europeia

A regulação da UE prevê que os sistemas de Inteligência Artificial sejam transparentes, rastreáveis, não discriminatórios, seguros e respeitadores do ambiente. Prevê ainda que que os usos da IA sejam supervisionados por especialistas humanos, mas as formas para executar essa legislação não estão claras.

Pelo IA Act, os usos da IA são classificados em quatro níveis de risco para a aplicação de penalidades:

Inaceitável – como os algoritmos que fazem pontuação social ou classifiquem os cidadãos pelo comportamento social, podem ser proibidos;

Elevado – usos em sistemas de gestão de infraestrutura, como transporte e educação e sistemas de controle das fronteiras ou de assistência jurídica. Devem ser avaliados na fase de produção e acompanhados durante o ciclo de vida;

Limitado – usos como chatbots e deep fakes devem explicitar seu funcionamento, alertar que os usuários estão interagindo com conteúdo feito por computadores e criar critérios para impedir a geração de informações nocivas ou distorcidas. Programas de IA Generativa como o Chat GPT foram enquadrados nesta categoria recentemente, porque foram publicados após o período de formulação da lei.

Mínimo   que devem atender à legislação vigente.

Projeto de Lei 2330/23

Brasil

A regulação brasileira, ainda em discussão, também adota o sistema de classificação de risco para uso da Inteligência Artificial.

  • Proibido programas de classificação social ou capazes de manipular comportamentos de populações vulneráveis;
  • Alto risco – programas devem ser avaliados e monitorados em seu uso. São programas de classificação automática de estudantes, de candidatos a empregos, pedidos de créditos ou benefícios sociais, diagnósticos médicos, risco de crimes e comportamento criminal e veículos autônomos.

Por Evelize Pacheco, especial para Fundação Heinrich Böll

Com informações do Nexo Jornal e Parlamento Europeu

Links Nexo https://www.nexojornal.com.br/externo/2023/09/09/Os-desafios-para-regulamentar-o-uso-da-intelige%CC%82ncia-artificial

Link Parlamento Europeu https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence