A vigilância por inteligência artificial destaca preconceito de raça e classe

Em São Paulo, o uso crescente de câmeras e reconhecimento facial promete segurança, mas reforça desigualdades.
por
Carolina Rouchou
|
12/11/2024 - 12h

Por Carolina Rouchou

 

Era uma tarde abafada de novembro, um intercambista alemão caminhava lentamente pela Avenida Paulista, com o olhar curioso e uma mochila pesada nas costas. Yannick havia chegado a São Paulo há alguns dias, vindo de Munique, a cidade mais segura da Alemanha. Enquanto passava pelas vitrines iluminadas e
pelos músicos de rua, sentia-se encantado com a energia vibrante e a mistura de estilos e sons que caracterizavam a metrópole. Mas algo mais sutil e desconfortante chamava sua atenção: a presença constante das câmeras de vigilância. A cada esquina, postes e fachadas estavam equipados com câmeras de segurança que monitoravam cada movimento da cidade. O alemão percebia que, diferente de sua cidade natal onde as câmeras eram usadas de maneira pontual, ali elas pareciam multiplicar-se por bairros e áreas específicas.

Nos dias que se seguiram, o alemão continuou a explorar a cidade. Ao caminhar pelo centro, observou que a vigilância parecia intensificar-se. Yannick entendia que quanto mais movimento, mais segurança era necessária, mas esse padrão contava com outras variáveis: classe social e cor de pele.

Ele notou que bairros de classe média alta, como Higienópolis, possuíam menos câmeras ostensivas, enquanto os bairros comerciais, as regiões de comércio popular e as estações de metrô eram densamente monitoradas. Cada um desses locais parecia fazer parte de um controle massivo, que separava e classificava as pessoas de acordo com onde estavam e como se vestiam. Essa vigilância intensa e localizada trouxeram uma sensação de inquietação. Em Munique, a segurança parecia silenciosa, quase imperceptível, mas em São Paulo Yannick sentia que a cidade o monitorava, como se não quisesse confiar totalmente nos seus moradores.

Com o passar dos dias, o estudante foi compreendendo o impacto dessa vigilância ostensiva sobre as pessoas, especialmente aquelas vindas de bairros periféricos e de classes mais baixas. Em suas conversas, ouviu relatos de moradores que se sentiam constrangidos ou até intimidados pela presença das câmeras, e percebeu que o que era apenas um desconforto para ele, era também o terror diário de muitos paulistas. A vigilância constante parecia sugerir que alguns corpos e identidades eram vistos como uma ameaça em potencial e que o olho eletrônico servia para assegurar que determinados grupos fossem mais controlados que outros. A impressão era de que o sistema, ao invés de proteger, promovia uma sensação de cerco e desconfiança.

Estudos recentes confirmam essa percepção. De acordo com o Instituto de Defesa do Direito de Defesa (IDDD), cerca de 90% das pessoas detidas em flagrante por reconhecimento facial em São Paulo são negras. Esse dado alarmante revela um viés racial profundo, indicando que a tecnologia de vigilância reproduz preconceitos e padrões históricos de discriminação. Outro estudo, conduzido pela Universidade Federal do ABC, sugere que o uso de inteligência artificial nesses
sistemas de vigilância carrega um viés de classe, cor e território. Os algoritmos, treinados com dados que refletem preconceitos sociais e raciais de longo prazo, acabam identificando com maior frequência indivíduos de bairros periféricos como suspeitos. Assim, a promessa de uma segurança inteligente falha em seu propósito
pois reforça estigmas históricos e sociais, transformando a vigilância em uma prática elitista e racista.

Esses problemas não se limitam ao Brasil. Pesquisas internacionais também apontam o viés racial embutido em tecnologias de reconhecimento facial. Um
estudo do Massachusetts Institute of Technology (MIT) mostrou que os sistemas de reconhecimento facial têm uma taxa de erro muito mais alta ao identificar rostos
negros e de mulheres em comparação com rostos de homens brancos. Esse viés, quando replicado em cidades como São Paulo, aprofunda as desigualdades sociais, perpetuando a ideia de que certas pessoas são mais perigosas do que outras com base em características raciais ou na região da cidade onde residem. Apesar das críticas, São Paulo continua a expandir o uso dessa tecnologia sem que existam regulamentações claras para prevenir abusos ou corrigir vieses. Organizações como a Privacy International alertam para os perigos de políticas de vigilância que, ao invés de promoverem segurança e inclusão, contribuem para marginalizar ainda mais grupos já vulneráveis.

Essa concentração de câmeras em áreas populares e de grande fluxo de pessoas em São Paulo expõe a população a um sistema de controle que separa a
cidade em territórios de desconfiança. A tecnologia, com todos os avanços que promete, deixa de ser uma ferramenta neutra quando é usada para definir quem deve ser monitorado e quem pode transitar livremente. Yannick sentia que em sua cidade natal a segurança não invadia a privacidade a ponto de interferir no modo de vida das pessoas. Já em São Paulo, a sensação era de que o controle estava acima da convivência, a ponto de criar um ambiente de vigilância massiva e hostil, em que alguns cidadãos são involuntariamente transformados em suspeitos apenas por existir.

O estudante deixou São Paulo com uma percepção amarga. O que poderia ser uma cidade pulsante e acolhedora se revelava, sob o olhar constante das câmeras, uma metrópole dividida, onde a tecnologia de vigilância reproduzia as divisões raciais e sociais que o Brasil historicamente lutava para superar. Essa cidade inteligente que prometia segurança, no entanto, impunha a mesma desconfiança sobre corpos e comunidades que ela, paradoxalmente, deveria proteger. Em seu
último passeio pela avenida, Yannick olhou uma última vez para as câmeras que o observavam de longe. Ele sabia que, para aqueles que continuavam a viver ali, o peso dessa vigilância não desapareceria tão facilmente.