Pouco
discutida é a questão do reconhecimento facial que vem sendo implantado à
revelia do cidadão, ainda mais ante os avanços da IA pelo mundo afora. O que
vamos falar, infelizmente, já esteve nas páginas de livros sobre distopias e na
tela dos cinemas, mas agora passeia no mundo real e acena aos mais atentos.
Direito
à intimidade.
A
coleta de dados pessoais de reconhecimento facial (inclusive e especialmente por
agências governamentais) levanta preocupações ante os impactos na vida do
cidadão. Por exemplo, ameaça à privacidade, pois envolve a captura de
informações biométricas sem o conhecimento ou consentimento do indivíduo (um
adeus ao direito ao privado?). Basta ver que a coisa, já usada no Brasil, está afetando
diretamente esses direitos. Como exemplo recente temos o infame “educatron” das
escolas paranaenses que, a despeito de falhas e erros no sistema, a ideia em si
é um poder de controle tão invasivo quanto ofensivo, pois visa, inclusive, reconhecer
os sentimentos que os alunos expressam mediante microexpressões faciais
(sim, essa tecnologia existe há algum tempo). O Estado e seus agentes serão os
fiscais de suas emoções?!
O
problema se desdobra na vigilância em massa, pois o uso generalizado da
tecnologia monitora ininterruptamente locais públicos (sem falar que existem
câmeras de alta resolução que “alcançam” centenas de metros). Esse ambiente de
vigilância constante é um poder que, num estado policial (para o qual
caminhamos), poderá tornar o ambiente absolutamente opressor.
Uso
Indevido ou, ao menos, duvidoso, dos dados.
A
má utilização por entidades governamentais (e empresas) eleva ao risco de
identificação incorreta, discriminação, perseguição, assédio e à própria invasão
de privacidade (o direito de não se tornar público, passar anônimo, ter sua
vida íntima e sentimentos reservados apenas a quem a pessoa quiser revelar).
O
problema maior é que, a cada dia que esta situação deixa de ser seriamente
discutida pela sociedade, a palavra “confidente”, “anônimo” ou “privado” soam
estranhas e até agressivas. Evidentemente uma falha na compreensão da amplitude
das consequências do reconhecimento facial. Este impacto ainda engloba o
psicológico e a própria Liberdade de Expressão das pessoas.
O
que queremos dizer é que a questão está longe de ser algo restrito à “proteção”
de dados.
A
caixa de pandora
Uma
versão sobre a mitológica Pandora é a de que, criada pelos deuses, foi mandada
por Júpiter, com boa intenção, a fim de agradar ao homem. O rei dos deuses
entregou-lhe, como presente de casamento, uma caixa, em que cada deus colocara
um bem. Pandora inadvertidamente abriu-a, e todos os bens escaparam, exceto a
esperança. Assim, sejam quais forem os males que nos ameacem, a esperança não
nos deixa inteiramente; e, enquanto a tivermos, nenhum mal nos torna
inteiramente desgraçados (Thomas Bulfinch, O livro de ouro da mitologia).
Recentemente
a corte do Reino Unido tomou uma decisão a respeito de uma empresa fornecedora
desta tecnologia, a Clearview AI. Decidindo que o Regulamento Geral de Proteção
de Dados (RGPD) do Reino Unido não se aplicava ao processamento de dados
pessoais pela empresa uma vez que prestava serviço a entidades governamentais
de países estrangeiros, e que os dados não eram de titulares do reino Unido. Os
principais pontos do caso foram que a Autoridade de Proteção de Dados do Reino
Unido (ICO) alegou que a Clearview AI infringiu várias disposições do RGPD e do
RGPD do Reino Unido, incluindo princípios de proteção de dados, legalidade do
processamento, processamento de dados de categorias especiais, obrigações de
transparência, direitos dos titulares de dados, tomada de decisão automatizada
e avaliação de impacto na proteção de dados. No fim, embora as atividades da
Clearview AI pudessem estar dentro da abrangência territorial do RGPD do Reino
Unido, elas estavam fora da sua abrangência (competência) material, pois a
Clearview AI oferecia serviços exclusivamente a agências estrangeiras e com
dados não relacionados a titulares do Reino Unido.
O
que queremos dizer é que a Clearview AI atuou em total desconformidade com a
lei de proteção de dados (e além!).
Simples?
Sim, porém, desastroso. Nos parece que a caixa aberta veio deixar escapar o bom
senso.
A tecnologia
é capaz de muita coisa boa, mas usada de forma abusiva, é um desastre total.
Deixando
de lado a questão da aplicação das leis de proteção de dados transfronteiriças
(incidência Territorial e Material das Leis de Proteção de Dados), por exemplo,
vimos esquecendo de algumas palavrinhas básicas: privacidade, fiscalização, emoções,
vigilância, massa, opressão, e, uma vez ignoradas nesse processo de implantação
dessa tecnologia (sem falar de sua soma com outras), poderão levar nossa
sociedade a um totalitarismo tecnológico sem precedentes. A notícia do Reino Unido (a questão de fundo) é bem assustadora, mas parece não preocupar muito por aí.
O tema
é complexo, todavia, deixa-lo de lado é retirar do cidadão a chance de decidir
entregar ou não mais uma parcela de sua liberdade ao Estado, não para que este
cuide bem de nós, mas para nos tornar o próprio alvo da vigilância como
potenciais criminosos.
Podemos
dizer que a esperança não nos deixara, ainda, inteiramente?
Fico
por aqui.
*Elvis
Rossi da Silva. Cristão, pai de família, advogado. Autor de artigos jurídicos,
escritor e jornalista independente.
Livros do autor: Circo Do Mundo
, Fábulas para Hoje
, Pensamentos ao Filho
, Contos Para a Infância , Plúrimas , Aos Amigos que Não Tenho
Telegram: https://t.me/fakingmeter
___________
FAKING
METER baseia-se no princípio da apreciação da
discussão sobre cultura e política, um diálogo com
verdade e honestidade para com o leitor.
Você
nos ajudará a manter um oásis revigorante num deserto cada vez mais contencioso
do discurso moderno?
Por
favor, considere fazer uma doação agora.
Entre no nosso Telegram - https://t.me/fakingmeter - e saiba como no post fixado.
Comentários
Postar um comentário