Câmeras de videovigilância não significam segurança plena

Reconhecimento facial e a dita tecnologia “salvadora da pátria”
por
Laila Santos
|
17/11/2025 - 12h

Por Laila Santos

 

Na cidade de São Paulo, câmeras penduradas em postes prometem eficiência, segurança e modernidade. A cada anúncio, a cidade parece um passo mais próxima do futuro imaginado pelas propaganda, com: ruas inteligentes, sistemas integrados e criminosos identificados em segundos. A versão oficial fala em inovação. A prática, no entanto, revela um outro roteiro: o da tecnologia que não erra sozinha e que, quando erra, costuma errar sempre do mesmo lado. Enquanto a população se acostuma com a ideia de que está sendo observada, pesquisadoras e movimentos sociais alertam que o reconhecimento facial se tornou muito mais um mecanismo de controle do que uma solução de segurança pública.

Deborah Dias, coordenadora pedagógica e articulação política, acompanha esse debate desde 2018, quando o País atravessava um período de endurecimento nas pautas de segurança pública. Para ela, o reconhecimento facial não nasceu como promessa tecnológica, mas como desdobramento de um projeto político anterior. O que começou no governo federal, com propostas que ampliavam a repressão, entre elas, a digitalização de mecanismos de vigilância, acabou, após pressão popular, reaparecendo nos estados e municípios com outra embalagem. A retórica deixou de ser “combate ao crime” e passou a ser “cidade inteligente”.

Assim, o que antes era parte de um pacote anticrime passou a ser defendido como avanço inevitável do urbanismo tecnológico. Foi aí que surgiram projetos como o Smart Sampa, apresentado pela Prefeitura de São Paulo, com a promessa de transformar a cidade em um grande sistema de monitoramento integrado. Durante seu trabalho na Câmara Municipal, Deborah participou de audiências públicas, ouviu especialistas, coletivos negros, movimentos de direitos humanos e analisou dados técnicos. O que encontrou foi uma unanimidade, os sistemas de reconhecimento facial cometem erros graves, repetidamente, e esses erros afetam quase sempre os mesmos grupos.

As falhas não aparecem por acaso. O algoritmo aprende com bancos de dados alimentados por pessoas inseridas em estruturas racistas, o que faz com que os erros se concentrem em rostos negros, pobres, indígenas, trans e não conformes. A tecnologia reforça desigualdades históricas e reproduz padrões que já existem fora das telas.

Em cidades brasileiras que adotaram o sistema antes de São Paulo, como Salvador, múltiplos casos de prisões injustas surgiram antes mesmo de qualquer debate público mais profundo. Pessoas que nunca haviam cometido um crime foram indexadas em listas de suspeitos. Fotos de trabalhadores informais apareceram entre procurados. Uma lógica que espelha o sistema carcerário do país, marcado pela predominância de homens negros e pela alta taxa de prisões sem julgamento adequado.

Na avaliação de movimentos negros e organizações de direitos humanos, essa tecnologia falha dentro de uma estrutura que já define quem pode ser confundido com criminoso. Para uma parte da população, a promessa do reconhecimento facial soa reconfortante. A propaganda diz que será possível andar sem medo, que o celular estará mais protegido e que a cidade ficará mais segura. Mas, para moradores das periferias, pessoas negras, mulheres lésbicas, homens trans, pessoas trans e travestis, a sensação é outra: a de ser observado e enquadrado como suspeito antes mesmo de ser visto como cidadão.

Deborah destaca que o problema não é apenas o erro técnico, mas o que ele produz. Uma pessoa reconhecida incorretamente pode ser detida, exposta, humilhada e viver um trauma que nenhuma indenização posterior é capaz de apagar. Meses encarcerada injustamente significam tempo perdido com a família, desgaste emocional, danos psíquicos e marcas que não se desfazem.

A tecnologia apresentada como neutra acaba reforçando a mesma lógica que sempre determinou quem é alvo prioritário do Estado. Ainda que os defensores da ferramenta insistam em promessas de precisão e redução da criminalidade, os países que já testaram o reconhecimento facial como solução de segurança pública recuaram. Estudos internacionais apontam que não houve queda significativa nos índices de criminalidade, mesmo onde o sistema foi amplamente implementado.

No Brasil, apesar dos alertas, o discurso da inovação se espalhou rapidamente. Em São Paulo, a justificativa tecnológica ganhou força especialmente em territórios de alta vulnerabilidade, como a região da Cracolândia, onde o monitoramento foi apresentado como uma política de cuidado, mas operou como vigilância. Para Deborah, alinhar tecnologia à ideia de neutralidade é esconder que ela nasce de decisões humanas. O algoritmo só reproduz o que foi ensinado: preconceitos, padrões, desigualdades e violências estruturais.

No ambiente digital, a maquinaria da desinformação amplifica os danos. Imagens circulam sem contexto, vídeos editados moldam narrativas e o ódio ganha terreno fértil. Em uma época marcada pela pós-verdade, a opinião se antecipa aos fatos. Quando o sistema identifica, corretamente ou não, uma pessoa negra como suspeita, a reação nas redes tende a reforçar estereótipos já enraizados. Segundo Deborah, não é a tecnologia que cria o discurso de ódio, mas ela opera como mais um combustível que alimenta narrativas racistas e punitivistas.


Histórias como a da vendedora do Brás, reconhecida como suspeita de tráfico enquanto vendia paletas e limpadores de para-brisa, revelam a dimensão humana das falhas tecnológicas. Sem acesso às informações sobre o suposto processo e sem meios de se defender, ela foi presa e passou por constrangimentos irreparáveis. O dano emocional, o trauma, o medo e a vergonha permanecem mesmo após a liberdade. Nada devolve o tempo em que foi injustamente encarcerada. Para especialistas e movimentos sociais, esses casos não são exceções, mas sim o retrato do tipo de sociedade que a tecnologia escolhe vigiar.

Enquanto cidades brasileiras continuam apresentando o reconhecimento facial como solução tecnológica, experiências internacionais já abandonaram o método por ineficácia e violação de direitos. Deborah defende que a ferramenta não deve ser aprimorada, mas abolida. Para ela, nenhum ajuste técnico corrige uma estrutura que nasce enviesada e aprofunda desigualdades.

No Brasil, onde a violência estatal já tem rosto, CEP e cor definidos, a promessa de uma tecnologia perfeita esconde uma realidade incômoda: a modernização pode ser só uma nova forma de repetir velhos erros. A tecnologia pode até ser vendida como salvadora da pátria. Mas, para quem está sempre na mira, o futuro que ela promete nunca chegou a ser promessa,  é só mais um alerta.