Nebuloso

Falta de transparência e de compromisso com a verdade afetam a Inteligência Artificial

Um pequeno grupo de empresas, todas norte-americanas, lidera a corrida da Inteligência Artificial no Ocidente. Sobram problemas. Entenda

CreativeCommons/Pixabay
CreativeCommons/Pixabay
"Você pode usar essa tecnologia para fazer, por exemplo, um número gigantesco de petições e entupir o Judiciário"

São Paulo – Aliado revolucionário do conhecimento ou falsa promessa, plagiadora de alta tecnologia, como defende o linguista Noam Chomsky? A Inteligência Artificial (IA) é o assunto de maior repercussão quando o tema é tecnologia. Em especial, nos últimos meses, o ChatGPT, da empresa OpenAI. Trata-se de um chatbot, um robô mimetizador, imitador da linguagem humana, a partir do aprendizado de máquina por redes neurais profundas (deep learning). Os possíveis impactos da tecnologia na sociedade levam cientistas, juristas e políticos a profundos debates.

O Instituto do Legislativo Paulista (ILP), órgão vinculado à Assembleia Legislativa de São Paulo, realizou hoje (27) um encontro sobre o tema. A ideia, compartilhada com o poder público de diferentes países, é prever problemas graves que podem resultar da IA. Não são poucas as possibilidades, para o bem e para o mal. “Tem uma aplicação dessa tecnologia que chamo de aplicação do mal por atacado. Você pode usar essa tecnologia para fazer, por exemplo, um número gigantesco de petições e entupir o Judiciário”, explicou o professor de ciência da computação da USP Marcelo Finger.

Ética e verdade

As piores possibilidades não param por ai. Além deste tipo de boicote, algo como “hackear” uma instituição, a imaginação dos possíveis malfeitores é o limite. “Não só o ChatGPT. Posso pensar em carros autônomos, por exemplo. É possível imaginar uma coordenação de ataque terrorista”, completa Finger. “Falar em ética não faz sentido aqui. Quem usa a tecnologia para o mal não está nem ai para isso. Então, precisamos de diferentes esferas para entender a tecnologia presente”, completa.

Não se trata de criar alarde. É essencial ao leitor que compreenda que falta, à IA, inteligência de fato. Não existe vontade, humor ou paixões. Até então, são ferramentas que usam algoritmos e encadeamento lógico de uma infinidade de dados. Essa ausência de humor, por outro lado, pode resultar em outro tipo de problema. Não há, nos programas de IA, compromisso com a ética, com a verdade. Seus mecanismos, ao contrário, são nebulosos. Além disso, um pequeno grupo de empresas privadas, quase exclusivamente norte-americanas, no Ocidente, controla a tecnologia.

Receita do caos

“Estamos sujeitos a isso, diferentemente de processos onde a área pública tem protagonismo. Ele está fundamentalmente concentrado na mão de cindo empresas norte-americanas. Se você pede referências, por exemplo, ele às vezes inventa. Inventa livros, autores, que sequer existem. É um equivoco considerar como soberano o que sai dali. A técnica de redes neurais profundas é um modelo estatístico de probabilidade. Tem variável de incertezas e vários problemas que podem interferir no resultado”, explica a professora do Programa de Tecnologias da Inteligência e Design Digital da Faculdade de Ciências e Tecnologia da PUC-SP Dora Kaufman.

Os cientistas argumentam pela necessidade de um profundo entendimento, progressivo, sobre o tema. Então, que o poder público também cumpra seu papel de regular, criar leis e mecanismos para coibir crimes e abusos. Dora lembra que deixar a IA livre aos prazeres do mercado é receita de fracasso. “Temos um começo de uma reação do mercado sobre uma governança de IA. Iniciativas de autorregulamentação se mostraram falhas. Na hora que conflita com interesse comercial, este prevalece. Por isso precisa de regulamentação do Estado. Senão, sempre perde o bem comum para o interesse comercial.”

Responsabilidade do usuário

Então, os cientistas falam sobre um problema duplo. De um lado, está a precariedade no compromisso de empresas desenvolvedoras que lideram o mercado de IA. De outro, está a responsabilidade do usuário. O professor da Faculdade de Ciências da Universidade Estadual de São Paulo (Unesp) João Paulo Papa reforça o protagonismo do usuário.

“No fim das contas, o usuário final vai dizer se aceita ou não o ChatGPT. Eu, por exemplo, não confiaria para fins científicos. No fim das contas, a informação do ChatGPT tem que ser curada. E ele terá responsabilidade por usar. Não adianta argumentar que o ChatGPT fez e ele utilizou. Ele tem que arcar com as consequências”, argumenta. Logo, não adianta o usuário “culpar” os mecanismos por eventuais erros, ou mesmo por possíveis discursos de ódio ou crimes contra a honra.

Externalidades

É essencial o aprofundamento em questões que tocam em problemas do uso da IA. Claro que existem aplicabilidades positivas. Finger lembra, por exemplo, de um mecanismo de IA nacional que reconhece pela voz dificuldades na respiração de pacientes com covid-19. Contudo, como frutos do capitalismo contemporâneo, os programas estão sujeitos às externalidades; problemas secundários naturais do processo de privilégio do capital sobre todas as outras coisas.

“O problema da IA atual é que ela otimiza uma única função. Ela é cega. Cria textos parecidos mas não tem nenhum compromisso com a veracidade. Ela maximiza semelhanças. Ela não tem bom senso. Da mesma forma como os algoritmos das redes sociais. Eles maximizam cliques. Querem manter o usuário na rede. Fazem ao máximo para isso. Assim, viram como a polarização da sociedade é positiva para isso. Pouco importa a questão ética. O que importa é aumentar a retenção dos usuários na rede”, explica Finger.

Fator relevância

Expostos os problemas possíveis, pesquisadores pontuam que o mundo ainda engatinha no sentido da regulação. Simplesmente não existe marco regulatório em qualquer país ocidental. A Europa avança com dificuldade nesse sentido. Um projeto tramita na Comissão Europeia, sem resolução, desde 2018. Então, enquanto isso, cientistas divergem na urgência do Brasil em correr com o tema. Dora problematiza. “Por que acelerar? Se não existe em lugar nenhum do mundo, por que o Brasil, que não é líder no desenvolvimento disso nem de uso direto, por que precisamos de protagonismo em um marco regulatório da IA? Temos algumas discussões”, afirma.

Por outro lado, Papa defende um mínimo eficiente para iniciar a discussão no âmbito do Estado. “É uma coisa difícil de regulamentar. Agora que os cientistas de dados estão se formando. É mais difícil achar profissionais para fazer a regulamentação. O Brasil, que tem liderança em vários setores, acho que seria bom sair à frente e fazer algo, pelo menos, básico. Um núcleo básico.”

O fato é que o aprendizado de máquina, redes neurais, e tudo que envolve a IA vieram para ficar. E para mudar o mundo. “A IA difere de outras tecnologias. Ela reconfigura a lógica e funcionamento da sociedade. Ela é distinta. Tivemos três tecnologias do tipo anteriores. O carvão, que deu início à (Primeira) Revolução Industrial, a eletricidade, a computação e, agora, a IA”, resume Dora.