Você está aqui: Página Inicial / Cidadania / 2018 / 05 / 'Não há proteção contra farmácia vender nossas informações para planos de saúde'

big data

'Não há proteção contra farmácia vender nossas informações para planos de saúde'

A ausência de uma regulamentação do uso de dados no Brasil foi alvo de críticas de advogado durante debate promovido pela USP
por Gabriel Valery publicado 23/05/2018 07h56, última modificação 23/05/2018 15h00
A ausência de uma regulamentação do uso de dados no Brasil foi alvo de críticas de advogado durante debate promovido pela USP
reprodução
usp talks.jpg

Para especialistas, dados pessoais podem ser utilizados de diferentes formas, sem o indivíduo notar

São Paulo – “Veja os exemplos dos nossos perfis de compra nas farmácias. Não há proteção para que elas vendam nossas informações, dos nossos documentos, para seguradoras. O Brasil não tem legislação para regular esse tipo de situação e isso é muito sério”, disse o advogado especialista em privacidade e vigilância Dennys Marcelo Antonialli sobre a coleta do CPF em compras nas farmácias. Ele teme que os estabelecimentos possam produzir relatórios sobre os remédios que o cidadão compra e, com essa informação, as seguradoras possam alterar o preço cobrado nos planos de saúde.

Antonialli participou hoje (22) do debate USP Talks, promovido pela universidade paulista, com o tema “Privacidade na Era da Internet”. Ao lado do advogado, a professora especialista em comunicação e jornalismo digital Elizabeth Nicolau Saad Corrêa.

“Tudo vira informação, vira 0 e 1”, disse a professora em relação ao código binário, padrão de informações na internet. “O único jeito de não abrir porta nenhuma é ficar na caverna. Não corresponde ao momento de sociabilidade que vivemos. O que precisamos é ser prudentes e cautelosos”, completou.

Para o advogado, existe uma grande necessidade de regulamentação na internet em assuntos relacionados ao uso de dados pessoais. “Quando falamos de direito à privacidade, estamos pensando na proteção dos dados. O que o direito propõe é controlar ou empoderar o usuário sobre os usos feitos com esses dados. Limites colocados. Alguns dados são muito sensíveis e não devem ser coletados, como posicionamento político ou orientação sexual. Podemos pensar que isso pode criar discriminação, o que deve ser proibido”, argumenta.

Como exemplo, Antonialli descreveu um caso que aconteceu nos Estados Unidos. “Uma farmácia chamada Target desenvolveu um programa de marketing direcionado para futuras mães. Para isso, utilizaram um sistema elaborado para descobrir quais mulheres estavam grávidas. Usaram um algorítimo que determinava a probabilidade não porque a pessoa comprou um teste de gravidez, mas por outros hábitos como shampoos. Então, o pai recebeu uma propaganda em casa de produtos para grávidas direcionada a sua filha de 16 anos. Ele ficou ofendido, porque ela não estava grávida. O fato é que ela estava e a farmácia descobriu isso antes do pai.”

Por meio da "problematização" desse caso, o advogado acrescentou que existem diferenças entre culturas e suas relações com a privacidade. “O direito tem que pensar nesses limites. Existem variadas diferenças nos níveis de proteção com base em como cada cultura enxerga isso. Por exemplo, quando o Google Street View foi lançado no Japão, encontraram uma grande resistência. Para os japoneses, a calçada é parte privada da residência e é vergonha se ela estiver feia. É uma noção diferente da do Brasil, aonde as pessoas querem estar na porta de casa quando o carro da Google for passar.”

De acordo com essa noção particular de privacidade, diferentes países já regulam os meios digitais, ou estão em meio a um processo tal. “Na Europa, existe a visão do valor social da privacidade. Eles não querem uma sociedade aonde pessoas possam abdicar de sua privacidade. Eles enxergam isso para que as pessoas não estejam reféns da publicidade. A exposição de usuários preocupa algumas sociedades e a regulamentação está surgindo cada vez mais forte”, disse o advogado.

O caso dos Estados Unidos é diferente. Um dos pioneiros na regulamentação, a forma deles passa por turbulências, como foi o caso da Cambridge Analytica, que usou dados de usuários do Facebook para direcionar campanhas eleitorais.

“Lá, a privacidade está relacionada com consentimento. Se eu confio na plataforma, então tudo bem. Eu, como indivíduo, escolhi participar dessa atividade. Esse modelo é criticado porque até que ponto uma pessoa pode dizer não para o Facebook? Nos Estados Unidos, a regulamentação foi no sentido de que as empresas são obrigadas a avisar o que elas fazem. Essa exigência de transparência criou políticas de privacidade. Isso tem mudado, porque sabemos que não é uma negociação. Ou as pessoas aceitam ou não estarão nas plataformas. Também os termos são longos e mudam a todo momento”, acrescemtpi;

Vigilância

Para Elizabeth, cabe ao usuário estar atento para se prevenir das armadilhas da exposição digital. “Você precisa dar o mínimo de dados para ser identificado em um ambiente. Com isso, esquecemos de algo no caminho que é ler os termos de uso. São enormes e não temos paciência. Mas ali estão as condições do teu relacionamento com a plataforma. Não temos tempo, então aceitamos”, disse.

“Depois disso, é possível, em cada um dos ambientes, entrar nos itens de configurações. Ali podemos determinar o que aparece, com quem conversamos, se os posts são públicos ou para algumas pessoas que você escolhe. Se permite comentários ou não. Mas quando você só aceita, usando o exemplo do Facebook, você deixa em aberto todas as opções. Sim para tudo.”

A professora lembrou aos presentes que as plataformas digitais vivem de vender dados. “Você alimenta um processo de dados em que podem vender, comercializar para anunciantes, pessoas que querem atingir determinados públicos. Assim essas áreas gratuitas fazem dinheiro. Então, cabe a nós decidirmos o quanto queremos alimentar esse processo de sobrevivência das plataformas (…) É muito difícil não usarmos a tecnologia, mas precisamos ter consciência. Porque tudo que cai ali, se faz qualquer coisa. Quem trabalha com dados sabe que é possível fazer todo tipo de correlação.”

Foi o que aconteceu no caso da Cambridge Analytica, explica Antonialli. “A empresa desenvolveu uma dessas enquetes e teve acesso aos dados de mais de 50 milhões de usuários. Fizeram essas inferências a respeito dos perfis psicológicos dessas pessoas. Descobriram que as pessoas poderiam ser classificadas em categorias e para cada uma um tipo de mensagem mais persuasivo. Do ponto de vista ético, há uma série de preocupações. Mas se houve crime, não. O que existe ali é em que medida a plataforma não deveria ter impedido esses usos”, finalizou.