Reconhecimento Facial X Racismo Algorítmico: Por que precisamos conversar sobre isso?
Por Carla Araújo | Comunicação
No artigo de hoje iremos desdobrar alguns fatos importantes a respeito do racismo algorítmico, fortemente questionado como uma reação voluntária ou involuntária do reconhecimento facial, reforçando a lógica racista que há por trás da tecnologia.
Até que ponto a culpa pelo racismo algorítmico é de fato do algoritmo? Podemos realmente dizer que uma sequência de regras, raciocínios e comandos milimetricamente calculados, para chegarmos a soluções e respostas que representam o comportamento humano, seja a causa do racismo estrutural dentro do universo da tecnologia? Por trás dos algoritmos existe alguém que os criou, isso é fato. E esse alguém é de carne e osso. Será que essas ações executáveis, criadas para solucionar e trazer respostas, não estão na verdade, alimentando a discriminação racial contra imagens e conteúdos digitais de pessoas negras ou não brancas? Pois bem, precisamos conversar sobre isso para responder estas perguntas.
Sabemos que a Inteligência Artificial está em todo lugar. Esse campo das ciências da computação, onde as máquinas ficam encarregadas de aprender e raciocinar exatamente como a mente humana, tem sido aplicado em inúmeros segmentos, como educação, medicina, desenvolvimento de softwares, vendas e marketing, e principalmente, na área de segurança pública, através de um sistema utilizado para identificar criminosos: o chamado reconhecimento facial.
O sistema de reconhecimento facial é um mecanismo capaz de comparar um rosto humano por meio de uma imagem digital, usando o critério da compatibilidade de traços faciais de um determinado indivíduo, diante de um banco de imagens. Basicamente, usam as características únicas de um indivíduo, para confirmar que ele é quem realmente diz ser. Mas é exatamente aí que mora o perigo.
Algoritmos e preconceito
Desde um pedido de refeição, uma compra online, transação bancária e redes sociais, a todo momento estamos de alguma forma expostos, seja através dos dados pessoais, seja pela nossa própria imagem. Os algoritmos trabalham na mesma velocidade com a qual nós os alimentamos, com informações preciosas sobre quem somos, como somos e o que gostamos. Mas é preciso enxergar até que ponto essa relação é do bem, e se de fato veio para somar.
A segurança de dados tem sido duramente questionada, após vazamentos de informações sigilosas e pessoais em grandes empresas como Facebook, Netflix, Linkedin e Uber, comprovaram que nenhuma informação está 100% protegida. Porém, quando o assunto está relacionado à segurança do indivíduo, vemos cada vez mais casos de pessoas negras serem incriminadas indevidamente, por conta de um reconhecimento facial criado por algoritmos carregados pelo viés inconsciente do racismo estrutural.
Isso denota o quanto a tecnologia, que é extremamente útil para desenvolver soluções, pode ser também uma armadilha do racismo. Afinal quem alimenta os códigos são as pessoas, e suas escolhas acabam influenciando negativamente o raciocínio dos algoritmos, pois refletem os comportamentos e opiniões de uma sociedade extremamente desigual. Ou seja, a revolução das máquinas começa nos humanos que as programaram, e inseriram ali todos os seus padrões e estereótipos.
A tecnologia NÃO é neutra
As desigualdades se refletem através dos algoritmos quando utilizam a tecnologia como uma extensão de opiniões, valores e padrões sociais. Esse reconhecimento do que é dito como padrão tem excluído perfis de pessoas negras nas redes sociais e invisibilizado conteúdos de qualidade, que deixam de ser entregues ou não têm o alcance esperado, simplesmente porque não aparecem mais ou aparecem com uma frequência muito menor. É desta maneira que a tecnologia voluntária ou involuntariamente, deixa de ser neutra e assume uma posição que reforça a lógica racista.
A cientista da computação Ana Carolina Da Hora, formada pela PUC Rio, sempre bate nessa tecla quando alerta sobre o perigo de compartilharmos informações em apps e páginas na internet, que não se sabe de onde são, e muitos menos qual o destino que aquelas informações terão. É um grande risco capaz de expor qualquer um de nós, mas que acusa, criminaliza e julga pessoas negras como culpadas, sem ao menos terem o direito de defesa.
Em 2019 foi feito um levantamento pela Rede de Observatório da Segurança, onde 90% dos presos através do reconhecimento facial no país, eram negros. Em resumo, o compartilhamento de dados não é transparente, a tecnologia não é neutra e o reconhecimento facial torna pessoas negras cada vez mais vulneráveis.
Afinal, a culpa é do algoritmo?
De certa forma, não. Os algoritmos são o espelho daquilo que a sociedade é e projeta através deles. E nesta leva de dados e informações, os vieses se propagam e disseminam desinformação e preconceitos, que acabam tornando a tecnologia uma grande vilã.
No documentário “Coded Bias” da Netflix, da cineasta Shalini Kantayya, a inteligência artificial é o principal alvo de uma investigação sobre o viés racista e também machista, que existe camuflado nos algoritmos de reconhecimento facial. Ali se discute a questão da ética, do preconceito e de como isso se desdobra nos ambientes de trabalho e nas relações humanas, sempre oscilando entre as boas e as más ações.
“O filme é contado sob a perspectiva de metade da população esquecida pelos documentários de ciência e tecnologia: mulheres e pessoas negras. Que, por acaso, também lideram a luta pelo uso mais ético e humano das tecnologias do futuro” (Shalini Kantayya)
Assista o trailer e não deixe de assistir o documentário na íntegra para entender melhor o preconceito que existe por trás do algoritmo.