DOE
GUIA DE BOAS PRÁTICAS
SALA DE IMPRENSA
  • Home
  • Quem Somos
  • Empregabilidade e Selo
  • Educação
  • Engajamento
    • Eventos
  • Mergulhe no Tema
  • Camisa
  • Blog
  • Contato
No Result
View All Result
ID_BR | SIM À IGUALDADE RACIAL
  • Home
  • Quem Somos
  • Empregabilidade e Selo
  • Educação
  • Engajamento
    • Eventos
  • Mergulhe no Tema
  • Camisa
  • Blog
  • Contato
No Result
View All Result
No Result
View All Result

Reconhecimento Facial X Racismo Algorítmico – Por que precisamos conversar sobre isso?

Reconhecimento Facial X Racismo Algorítmico: Por que precisamos conversar sobre isso?

 

Por Carla Araújo | Comunicação

 

No artigo de hoje iremos desdobrar alguns fatos importantes a respeito do racismo algorítmico, fortemente questionado como uma reação voluntária ou involuntária do reconhecimento facial, reforçando a lógica racista que há por trás da tecnologia.

Até que ponto a culpa pelo racismo algorítmico é de fato do algoritmo? Podemos realmente dizer que uma sequência de regras, raciocínios e comandos milimetricamente calculados, para chegarmos a soluções e respostas que representam o comportamento humano, seja a causa do racismo estrutural dentro do universo da tecnologia? Por trás dos algoritmos existe alguém que os criou, isso é fato. E esse alguém é de carne e osso. Será que essas ações executáveis, criadas para solucionar e trazer respostas, não estão na verdade, alimentando a discriminação racial contra imagens e conteúdos digitais de pessoas negras ou não brancas? Pois bem, precisamos conversar sobre isso para responder estas perguntas.

Sabemos que a Inteligência Artificial está em todo lugar. Esse campo das ciências da computação, onde as máquinas ficam encarregadas de aprender e raciocinar exatamente como a mente humana, tem sido aplicado em inúmeros segmentos, como educação, medicina, desenvolvimento de softwares, vendas e marketing, e principalmente, na área de segurança pública, através de um sistema utilizado para identificar criminosos: o chamado reconhecimento facial.

O sistema de reconhecimento facial é um mecanismo capaz de comparar um rosto humano por meio de uma imagem digital, usando o critério da compatibilidade de traços faciais de um determinado indivíduo, diante de um banco de imagens. Basicamente, usam as características únicas de um indivíduo, para confirmar que ele é quem realmente diz ser. Mas é exatamente aí que mora o perigo. 

 

Algoritmos e preconceito

Desde um pedido de refeição, uma compra online, transação bancária e redes sociais, a todo momento estamos de alguma forma expostos, seja através dos dados pessoais, seja pela nossa própria imagem. Os algoritmos trabalham na mesma velocidade com a qual nós os alimentamos, com informações preciosas sobre quem somos, como somos e o que gostamos. Mas é preciso enxergar até que ponto essa relação é do bem, e se de fato veio para somar.

A segurança de dados tem sido duramente questionada, após vazamentos de informações sigilosas e pessoais em grandes empresas como Facebook, Netflix, Linkedin e Uber, comprovaram que nenhuma informação está 100% protegida. Porém, quando o assunto está relacionado à segurança do indivíduo, vemos cada vez mais casos de pessoas negras serem incriminadas indevidamente, por conta de um reconhecimento facial criado por algoritmos carregados pelo viés inconsciente do racismo estrutural. 

Isso denota o quanto a tecnologia, que é extremamente útil para desenvolver soluções, pode ser também uma armadilha  do racismo. Afinal quem alimenta os códigos são as pessoas, e suas escolhas acabam influenciando negativamente o raciocínio dos algoritmos, pois refletem os comportamentos e opiniões de uma sociedade extremamente desigual. Ou seja, a revolução das máquinas começa nos humanos que as programaram, e inseriram ali todos os seus padrões e estereótipos.

 

A tecnologia NÃO é neutra

As desigualdades se refletem através dos algoritmos quando utilizam a tecnologia como uma extensão de opiniões, valores e padrões sociais. Esse reconhecimento do que é dito como padrão tem excluído perfis de pessoas negras nas redes sociais e invisibilizado conteúdos de qualidade, que deixam de ser entregues ou não têm o alcance esperado, simplesmente porque não aparecem mais ou aparecem com uma frequência muito menor. É desta maneira que a tecnologia voluntária ou involuntariamente, deixa de ser neutra e assume uma posição que reforça a lógica racista.

A cientista da computação Ana Carolina Da Hora, formada pela PUC Rio, sempre bate nessa tecla quando alerta sobre o  perigo de compartilharmos informações em apps e páginas na internet, que não se sabe de onde são, e muitos menos qual o destino que aquelas informações terão. É um grande risco capaz de expor qualquer um de nós, mas que acusa, criminaliza e julga pessoas negras como culpadas, sem ao menos terem o direito de defesa.

Em 2019 foi feito um levantamento pela Rede de Observatório da Segurança, onde 90% dos presos através do reconhecimento facial no país, eram negros. Em resumo, o compartilhamento de dados não é transparente, a tecnologia não é neutra e o reconhecimento facial torna pessoas negras cada vez mais vulneráveis.

 

Afinal, a culpa é do algoritmo?

De certa forma, não. Os algoritmos são o espelho daquilo que a sociedade é e projeta através deles. E nesta leva de dados e informações, os vieses se propagam e disseminam desinformação e preconceitos, que acabam tornando a tecnologia uma grande vilã.

No documentário “Coded Bias” da Netflix, da cineasta Shalini Kantayya, a inteligência artificial é o principal alvo de uma investigação sobre o viés racista e também machista, que existe camuflado nos algoritmos de reconhecimento facial. Ali se discute a questão da ética, do preconceito e de como isso se desdobra nos ambientes de trabalho e nas relações humanas, sempre oscilando entre as boas e as más ações. 

“O filme é contado sob a perspectiva de metade da população esquecida pelos documentários de ciência e tecnologia: mulheres e pessoas negras. Que, por acaso, também lideram a luta pelo uso mais ético e humano das tecnologias do futuro” (Shalini Kantayya)

Assista o trailer e não deixe de assistir o documentário na íntegra para entender melhor o preconceito que existe por trás do algoritmo.

 

 

ShareTweetShare

Deixe uma resposta Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

FALE CONOSCO

CAPTCHA image

SOBRE NÓS

PARTICIPE

© 2018 ID_BR – Sim à Igualdade Racial – Todos os direitos reservados. | Desenvolvido por Beta Design

No Result
View All Result
  • Home
  • Quem Somos
  • Empregabilidade e Selo
  • Educação
  • Engajamento
    • Eventos
  • Mergulhe no Tema
  • Camisa
  • Blog
  • Contato
  • Doe
  • Guia de Boas Práticas
  • Sala de Imprensa

© 2018 ID_BR - Sim à Igualdade Racial - Todos os direitos reservados. Desenvolvido por Beta Design