O recente assassinato do cidadão afro-americano George Floyd pelas mãos de policiais brancos, além de ter incentivado protestos antirracistas nos Estados Unidos e mundo afora, parece ter impactado em cheio as grandes companhias de tecnologia e gerado um intenso debate acerca da tecnologia implementada nos softwares de reconhecimento ou análise facial.

Pois bem, em dezembro de 2019, ou seja, muito antes da injustificável morte de George Floyd, um estudo conduzido pelo National Institute of Standards and Technology (Nist) sob patrocínio do governo federal americano, constatou que a tecnologia, cujo objetivo principal seria o auxílio ao combate à corrupção, poderia ocasionar a promoção do racismo e agravar a crise política instaurada no país[1].

Sendo que esta suspeita se justificaria pois, após a testagem das centenas de algoritmos utilizados pelos grandes players do setor tecnológico para fins de reconhecimento facial, foram detectados “bugs” que poderiam possibilitar falsas acusações de cidadãos a depender de etnias, traços e cor da pele, imputação esta que, de acordo com o estudo, teria 100 (cem) vezes mais chances de ocorrer com aqueles que possuem traços afrodescendentes.

Não à toa, poucos dias após a morte de George Floyd, gigantes da tecnologia como IBM[2], Microsoft[3] e Amazon[4], declararam publicamente que irão, ao menos, adiar o fornecimento de seus sistemas de reconhecimento facial às autoridades policiais, uma vez que, embora a tecnologia possa ser útil no combate à violência, não há transparência no modus operandi das autoridades ao aplicar este recurso na prática, tampouco clareza acerca do combate à discriminação racial.

Nesse contexto, em 08 de junho de 2020 os congressistas democratas americanos apresentaram um projeto de lei sobre direitos civis e reforma policial denominado “Justiça no policiamento de 2020” (Justice in policing act of 2020)[5], que possui como objetivo principal a reforma das políticas policiais, de modo a combater o racismo sistêmico, o que inclui, dentre outros, a transparência na coleta de dados para fins de investigação criminal, refletindo diretamente, portanto, nas tecnologias de reconhecimento facial.

Trazendo o debate para a perspectiva nacional, muito embora a Lei Geral de Proteção de Dados (“LGPD”), cuja vigência tem sido objeto de intenso debate, tenha classificado os dados biométricos das pessoas naturais como sensíveis, ou seja, permitindo sua coleta somente nas hipóteses específicas trazidas pela lei no art. 11, a referida lei não se aplica, nos termos do art. 4, inciso III, quando o tratamento dos dados for realizado exclusivamente para o fins de segurança pública e do Estado, defesa nacional ou atividades de investigação e repressão de infrações penais. Não há, porém, até a data de conclusão deste artigo, legislação que regule as tecnologias de reconhecimento facial de forma específica.

Não obstante, muito se tem noticiado no Brasil sobre investimentos na área de reconhecimento facial para prevenção e investigação de crimes. O Governo do Estado de São Paulo, por exemplo, inaugurou em janeiro de 2020 o Laboratório de Identificação Biométrica – Facial e Digital da Polícia Civil, o qual foi responsável por operar a tecnologia durante o Carnaval deste ano[6].

O Estado do Rio de Janeiro foi um dos primeiros a deter um acusado de homicídio com base nesta tecnologia, na qual já investiu mais de 18 milhões de reais.

Contudo, seguindo o posicionamento das gigantes da tecnologia face à crise racial, política e econômica que assola o mundo atualmente, uma coisa é certa: é preciso ter cautela.

O próprio Direito-executivo do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio), Fabro Steibel, durante a última audiência pública ocorrida na CCTCI – Comissão de Ciência e Tecnologia, Comunicação e Informática, ressaltou que a precisão do reconhecimento facial no Brasil é ainda muito baixa, sendo que o índice de “falsos positivos” chega ao patamar de 92%, o que quer dizer que é a probabilidade de pessoas inocentes serem apontadas como criminosas é extremamente alta, sendo improvável, neste momento, que o recurso possa ser utilizado em grande escala.

Além disso, em recente estudo publicado pela Rede de Observatórios de Segurança[7], que analisou, de março a outubro de 2019, o número de prisões com o auxílio de tecnologias de reconhecimento facial nos estados da Bahia, Rio de Janeiro, Santa Catarina e Paraíba, constatou-se que, do total de casos nos quais havia informações de raça e cor das pessoas abordadas (42 casos no total), 90,5% eram negras e 9,5% brancas[8], abordagens estas que, ainda segundo o estudo, foram majoritariamente motivadas por suspeitas de tráfico de drogas e roubo.

Embora a tecnologia ora analisada possa ser uma forte aliada da segurança pública, o estudo destacado acima, corroborado por diversos casos práticos já experenciados pela sociedade, como o da uma moradora do bairro de Copacabana foi detida por engano ao ser confundida com uma mulher que já havia sido presa[9], coloca em cheque, pelo menos até o momento, os resultados esperados com a implementação destas tecnologias, fazendo com que haja necessidade de estabelecimento de parâmetros a serem seguidos para aplicação destes softwares como justificativa para abordagem e prisão de pessoas.

De todo modo, sob a justificativa da necessidade de implementação destes recursos tecnológicos para combate à crise de segurança que vem assolando o país, três projetos de lei tramitam no Congresso Nacional acerca do tema, o primeiro deles é o PL 9736/2018 de autoria dos Deputados Federais Júlio Lopes (PP/RJ) e Paulo Abi-Ackel (PSDB/MG)[10], pelo qual pretendem acrescentar dispositivo à Lei de Execuções Penais (Lei 7.210/1984) para tornar obrigatória identificação por reconhecimento facial de pessoas custodiadas no sistema prisional brasileiro – caso seja aprovada, esta obrigatoriedade poderá aumentar a base de dados biométricos faciais do Estado.

O segundo é o PL 2537/2019, apresentado pelo Deputado Federal Juninho do Pneu (DEM/RJ), que visa obrigar os estabelecimentos comerciais que utilizarem desta tecnologia a informarem seus consumidores, na entrada do estabelecimento, que estarão sujeitos a tal verificação biométrica, obrigatoriedade esta que, ao nosso ver, já encontra respaldos na própria LGPD.

Já o PL 4612/2019, de autoria do Deputado Federal Bibo Nunes (PSL/RS), que “dispõe sobre o desenvolvimento, aplicação e uso de tecnologias de reconhecimento facial e emocional, bem como outras tecnologias digitais voltadas à identificação de indivíduos e à predição ou análise de comportamentos”[11] (ementa do PL), fundamenta-se no “avanço das tecnologias digitais como fator estratégico para o desenvolvimento econômico e social sustentável e inclusivo” (destacamos) e tem como um de seus pressupostos o “uso da tecnologia para fins benéficos e dentro de padrões razoáveis e aceitáveis, proibido o tratamento discriminatório” (destacamos).

Além disso, o PL 4612/2019 conta com um capítulo próprio para tratar dos “Direitos dos Cidadãos Afetados”, no qual dispõe acerca da obrigatoriedade de os entes públicos ou privados sinalizarem quando estas tecnologias forem utilizadas, elencando, ainda, algumas garantias constitucionais a serem respeitadas, como direito a informação, privacidade, liberdade e  exercício da cidadania – o  PL atribui à Agência Nacional de Proteção de Dados (“ANPD”) a competência para implementar, regular e deliberar acerca da lei proposta.

De forma prática, ainda que o projeto citado acima torne-se lei, não haveria, pelo menos até a regulamentação e aplicação prática das atribuições conferidas à ANPD, um controle do uso destas tecnologias pelo poder público para abordagem e prisão de pessoas justificadas nos parâmetros de reconhecimento aplicados em tais ferramentas.

Polêmicas à parte, fato é que a sociedade e, principalmente, o direito, deverão se moldar, mais uma vez, para que o uso de tecnologias como a discutida no presente artigo, não seja mais um fator de fomento às desigualdades sociais. Cabe sempre lembrar, contudo, que embora estejamos diante de um aparato tecnológico, a interferência humana, seja em sua concepção, seja na sua operacionalização, não poderá ser descartada, afinal, é a inteligência humana (ou a falta dela) que se utiliza de viés racial para tomada de decisões desiguais e injustas.

 

https://www.washingtonpost.com/technology/2020/06/11/microsoft-facial-recognition/?utm_campaign=8719f054f4-EMAIL_CAMPAIGN_2020_02_04_10_03_COPY_01&utm_medium=email&utm_source=Mailing%20Seman%C3%A1rio

https://www.ibm.com/blogs/policy/facial-recognition-susset-racial-justice-reforms/?utm_source=Mailing+Seman%C3%A1rio&utm_campaign=8719f054f4-EMAIL_CAMPAIGN_2020_02_04_10_03_COPY_01&utm_medium=email&utm_term=0_723d7d1345-8719f054f4-438059145

https://www.bbc.com/news/technology-50865437

https://blog.aboutamazon.com/policy/we-are-implementing-a-one-year-moratorium-on-police-use-of-rekognition?utm_source=Mailing+Seman%C3%A1rio&utm_campaign=8719f054f4-EMAIL_CAMPAIGN_2020_02_04_10_03_COPY_01&utm_medium=email&utm_term=0_723d7d1345-8719f054f4-438059145

https://www25.senado.leg.br/web/atividade/materias/-/materia/139967

https://judiciary.house.gov/issues/issue/?IssueID=14924

 

[1] Noticiado em: <https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software> Acesso em 22/06/2020

[2] Disponível em: <https://www.ibm.com/blogs/policy/facial-recognition-susset-racial-justice-reforms/> Acesso em 22/062020

[3] Disponível em: <https://www.washingtonpost.com/technology/2020/06/11/microsoft-facial-recognition/?utm_campaign=8719f054f4-EMAIL_CAMPAIGN_2020_02_04_10_03_COPY_01&utm_medium=email&utm_source=Mailing%20Seman%C3%A1rio> Acesso em 22/06/2020

[4] Disponível em: <https://blog.aboutamazon.com/policy/we-are-implementing-a-one-year-moratorium-on-police-use-of-rekognition?utm_source=Mailing+Seman%C3%A1rio&utm_campaign=8719f054f4-EMAIL_CAMPAIGN_2020_02_04_10_03_COPY_01&utm_medium=email&utm_term=0_723d7d1345-8719f054f4-438059145> Acesso em 22/06/2020

[5] Noticiado em: <https://edition.cnn.com/2020/06/08/politics/democrats-police-legislation/index.html> Acesso em 22/06/2020

[6] Noticiado em: <https://www1.folha.uol.com.br/cotidiano/2020/01/carnaval-de-sp-vai-ter-sistema-de-reconhecimento-facial-para-identificar-suspeitos.shtml> Acesso em 22/06/2020

[7] A Rede de Observatórios de Segurança é formada por iniciativa de instituições acadêmicas e da sociedade civil dos estados da Bahia, Ceará, Pernambuco, Rio de Janeiro e São Paulo, que acompanham índices de segurança pública e criminalidade. Mais informações em: <http://observatorioseguranca.com.br/a-rede/o-que-e/> Acesso em 22/06/2020

[8] Estudo completo disponível em: <http://observatorioseguranca.com.br/wp-content/uploads/2019/11/1relatoriorede.pdf> Acesso em 22/06/2020

[9] Noticiado em: < https://oglobo.globo.com/rio/reconhecimento-facial-falha-em-segundo-dia-mulher-inocente-confundida-com-criminosa-ja-presa-23798913> Acesso em 22/06/2020

[10] Disponível em: <https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2169011> Acesso em 22/06/2020

[11] Disponível em: < https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2216455> Acesso em 22/06/2020

voltar

COMPARTILHAR: