A automatização de preconceitos através da influência dos algoritmos

Como dispositivos algorítmicos afetam a vida cotidiana e reforçam estigmas sociais
por
Sophia Razel
|
29/06/2022 - 12h

Por Sophia Razel

https://lh3.googleusercontent.com/PU2Z5hmpvltUd2tmMGaw3w9CTvw35oh5n24oN164gMFZeGhunSRo5pDeuNb7OxNdaFNlZ3pt-J9YlAhCefqsjZ4BuHUBzHJuFLYCxCnINMnreMEJxTQZN2Gs8MM7GnfmD9T_H3ToGAJhw8pLxA

                                         Foto: Getty Images

 

24 de dezembro de 2021, véspera de natal. O dia marcado por celebrações tornou-se uma data atravessada pela frustração e preconceito vividos por Diego Benjamin. Alvo do racismo algorítmico, Benjamin relata sua experiência em um pequeno vídeo na plataforma TikTok, que ganhou grande repercussão. Ao receber uma notificação para cadastrar sua biometria facial no aplicativo de seu banco, C6, o usuário não conseguia obter sucesso na solicitação. Com o rosto sem qualquer tipo de adereços e com uma boa iluminação, o sistema de reconhecimento facial do aplicativo não era capaz de identificá-lo.

Após algumas tentativas, sem sucesso, o rapaz resolveu testar o sistema com uma foto da internet, mostrando um homem branco. Quase instantaneamente, sua câmera o reconheceu. Sendo um homem negro, Diego compartilha através de sua experiência mais uma prova da estrutura racista do país, assim como dito por ele.     

@sociedadepretadospoetas Nao consegui passar da foto. Muita melanina pra um banco só 😂. #c6bank #thor😂 #preto #preta #acoisatapreta ♬ som original - Benjamin

 

Em uma sociedade cada vez mais imersa no mundo digital, o desenvolvimento de ferramentas tecnológicas de alta habilidade torna-se constante. Entretanto, o funcionamento desses mecanismos não é conhecido a fundo pela maioria da população, mesmo estando inseridos em diversos espaços do cotidiano.   

Com o desenvolvimento tecnocientífico, foram desenvolvidas inúmeras ferramentas que auxiliam na execução de tarefas. É o caso da Inteligência Artificial e, consequentemente, dos Algoritmos. Por definição, esse último pode ser entendido como um conjunto de instruções feitas para solucionar um problema. Contudo, as falhas destes mecanismos artificiais - que tomam decisões de visibilidade, acesso, classificação e processamento de materiais digitais - são frequentes, e muitas vezes estão ligadas a vieses de raça, gênero e classe.

Algoritmos e Inteligência artificial ganham cada vez mais destaque no debate sobre comunicação e sociedade, já que administram cada vez mais esferas da vida. Atividades corriqueiras como solicitar uma corrida de aplicativo, verificações faciais de segurança nas redes e bancos já utilizam os mecanismos da IA há muito tempo. Raissa Tonon, mestranda e pesquisadora em Tecnologia da Inteligencia e Design Digital, reflete sobre quais as problemáticas acerca de empresas deterem tantas informações dos usuários, segurança e também sobre os benefícios inegáveis dessas tecnologias. 

Por mais adaptadas que estejam no cotidiano, muitas vezes não sendo sequer percebida pela maioria dos indivíduos, essas tecnologias traçam intensamente os perfis das pessoas ao absorver dados para estimular o consumo, e coletar informações de sistemas de segurança pública.

O racismo sistêmico adentra a tecnologia cotidiana e, através das mais diversas formas, seja em filtros de selfie ou pelo policiamento preditivo (que afirma antecipadamente), evidenciam um sistema de práticas contra grupos racializados.   

A realidade de muitos pode ser afetada por tais mecanismos, que se tornam réus do preconceito automatizado. Segundo pesquisa realizada pela Rede de Observatórios da Segurança, em 2019, cerca de 90,5% dos presos por monitoramento facial no Brasil foram negros. Em muitos casos, as prisões arbitrárias alcançam os alvos errados, causando constrangimento aos acusados.

Cada vez mais, o reconhecimento facial tem sido implementado nos estados e cidades do Brasil, não como uma ferramenta de segurança em prol dos interesses da sociedade, mas sim como um meio de manutenção de controle, justificando sua rápida ascensão.

O grande público da folia carnavalesca da Bahia, em 2019, ficou marcado pela tecnologia de câmeras implantada na cidade. Sendo noticiada e exaltada, a ação – que visava combater o crime ao localizar criminosos – coletou, indiretamente, dados de mais de novecentas pessoas identificadas como possíveis criminosos com mandados de prisão abertos. Porém, somente 18 mandados foram cumpridos e 15 pessoas foram presas, assim representando mais de 96% de falsos positivos (casos em que pessoas são identificadas de forma errada, confundidas umas com as outras pela inteligência artificial.

Esses resultados demonstram como as tecnologias podem ter vieses discriminatórios muito marcantes, que afetam diretamente pessoas de certos grupos demográficos. Dessa forma, o reconhecimento facial, quando aplicado em massa por um órgão público, escancara a inserção dos sujeitos em uma sociedade de vigilância.

Sobre o software (conjunto de componentes lógicos de um computador ou sistema de processamento de dados) de reconhecimento facial, Jefferson de Oliveira, Doutor em Ciências da Computação, diz que o mesmo funciona criando uma espécie de assinatura do nosso rosto e salva a distância entre os nossos olhos, nariz e a boca, das bochechas ao nariz, etc. Para ele, quando bem feita, a ferramenta pode funcionar de uma forma eficaz, mas confessa que existem dois problemas principais: o primeiro deles, os falsos positivos. O professor não acredita que é possível confiar no resultado gerado do mesmo modo como confiamos na identificação de uma digital, por exemplo.

O outro ponto é que seu uso pelo Estado pode dar muito poder, sem termos os freios contra os abusos produzidos. Oliveira aponta que o Estado pode usar essas informações para coibir manifestações contrárias, suprimir opositores, coagir cidadãos, e que ainda não existem boas formas de frear esse tipo de movimento por parte do Estado.

Um futuro onde esses mecanismos serão capazes de escolhas livres de julgamentos e preconceitos não é algo previsto, como afirma o Doutor em Ciências da Computação. Para ele, o que podemos ter é um desenvolvimento responsável, que permita que os ofendidos possam protestar e ter suas reclamações ouvidas. Complementa ainda que isso só será possível com o envolvimento de muitas partes, incluindo filósofos, advogados, engenheiros de software, cientistas de dados, anotadores etc., mas isso não significa que a tecnologia terá menos valor. Só será preciso usá-la com responsabilidade e equidade, considerando que todos devem ser igualmente beneficiados por ela.

A reprodução de padrões traçados como negativos são embutidos nas orientações de algoritmos, e assim, a estigmatização social racial que o viés algorítmico desenvolve ajuda a propagar implicita e explicitamente estereótipos e exclusão social.

Por direito, há - assim como tem de ser com todas as atividades públicas - a necessidade de se ter transparência e respeito aos direitos e dados dos cidadãos gerados por inteligência artificial. No ambiente legal, certas medidas vêm sendo tomadas e discutidas a fim de tentar minimizar tais impactos e regularizar essas tecnologias, como é o caso da Lei Geral de Proteção de Dados.

 A LGPD (13.709/2018) tem como principal objetivo proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural. Também tem como foco a criação de um cenário de segurança jurídica, com a padronização de regulamentos e práticas para promover a proteção aos dados pessoais de todo. Sérgio Amadeu, pesquisador e professor da UFABC comenta.

 Além de leis como essa, outras medidas também podem ser tomadas, buscando evitar a propagação de preconceitos por parte dos aparatos tecnológicos, como ter equipes de desenvolvimento diversas e um grande critério no treinamento das IA’s. Para a pesquisadora Raíssa Tanon, essas regulamentações precisam ser amplamente discutidas, uma vez que quem as decide são advogados, políticos e jurístas que não entendem de tecnologia.

 

 

https://lh6.googleusercontent.com/T0bo2gWsQ6EWgItn3S_-0Rbnh-GLb9XwMqkJXLn6r_FMzcWpSSDNuPUtRkJurdbcRwtJ_vEvzhOrrUirFsKdvMBLzvplcpPX2AdDkv93efK1BRjCKI8ueIHffo49jBffAbfOLKTpvNhkvlFK5A

(Reprodução: SERPRO - Serviço Federal de Processamento de Dados)

 

A ciência da informação trouxe inúmeros avanços, de modo a estabelecer uma conexão muito próxima entre o funcionamento das máquinas com o pensamento humano. A similaridade entre ambos é reforçada quando se observa tais aparatos reproduzindo julgamentos e outras ações do ser humano. Embora determinados serviços sejam otimizados, a implantação de sistemas algorítmicos, programados por instruções humanas, pode representar riscos significativos para grupos marginalizados na sociedade. As semelhanças com o mundo real são consideráveis, mas a maneira como as mesmas estão sendo reproduzidas e afetando a vida dos indivíduos também precisa avançar.