Essa foi uma das questões trazidas por Johanna Katiuska Monagreda, doutora em Ciência Política pela Universidade Federal de Minas Gerais (UFMG), durante a palestra ”Racismo algorítmico e educação: os impactos da tecnologia entre grupos historicamente discriminados”, realizada na primeira edição deste ano do Café Científico pelo Instituto Cultural Steve Biko, por meio do Programa Oguntec, na tarde do dia 30 de agosto, no Colégio Estadual Mestre Paulo dos Anjos, no Bairro da Paz, em Salvador.
Esta questão nos convoca a refletir sobre o maniqueísmo acerca das tecnologias nos dias atuais. Uma temática frequentemente debatida, seja no uso das tecnologias em ações consideradas inocentes, a partir de envio e recebimentos de mensagens, até o uso massivo para captar informações e dados que, a princípio, deveriam ser privados, como ocorre em cadastros de CPFs e do polêmico reconhecimento facial, este último, de acordo com a pesquisadora Johanna, tem trazido mais malefícios que benefícios e, inclusive, sustenta a campanha “Tira meu rosto da sua mira”, que defende o não uso nos ambientes públicos.
“A tecnologia de reconhecimento facial é uma tecnologia tem se comprovado que traz muito mais efeitos negativos do que benefícios. É um tipo de tecnologia que traz violação de direitos, da privacidade e a inversão da presunção da inocência, pois você não é mais inocente, você está vigiado o tempo todo, porque você é o todo tempo considerado suspeito e precisa ser vigiado. Então, quando você tem essa pretensão, a tecnologia de reconhecimento facial erra muito mais na população negra e muito mais nas mulheres negras”, afirma.
Fotos: Ascom Steve Biko
Johanna também reforça que a tecnologia de reconhecimento facial é extremamente errônea, por ser concebida, por princípio, como moldes racistas. “Você pode dizer que pode treinar a tecnologia para que ela não erre mais, mas também não me interessa uma tecnologia que é cara, obsoleta e que contribui para o encarceramento em massa da população negra. Então, ela não me interessa nem pelos erros e também se ela funcionasse corretamente. Ela tem um princípio racista na sua própria concepção que também não me interessa. Eu sou contrária ao uso massivo da tecnologia de reconhecimento facial, principalmente em espaços públicos, onde não se tem controle sobre o que você está sendo monitorado”.
Mas como explicar o uso racista da tecnologia? É possível que o algoritmo seja racista? No conceito de Safiya Noble, trazido pela doutora Johanna, os algoritmos podem ser entendidos como “formulações matemáticas, códigos, realizadas por humanos que conduzem à tomada de decisões automatizadas”. Já para o intelectual Jurno e DAndréa, os “algoritmos são complexos, primeiro programadores podem embutir de forma não desejada inclusive seus próprios valores, crenças e preconceitos; os algoritmos vão se nutrir de redes de relações que podem influenciar sua ação; podem ter efeitos não previstos; podem errar, podem apresentar falhas ou bugs”.
E como a juventude pode entender a gravidade e fazer o uso consciente da tecnologia em uma sociedade conectada? A pesquisadora entende que é preciso envolver os jovens nessa discussão, sobretudo os jovens negros e negras, que são impactados e excluídos por algoritmos que são produzidos na intenção de reproduzir o racismo e as violências nossas de cada dia, dessa forma, um simples cadastro de CPF em uma farmácia ou de biometria em uma academia podem significar a vulnerabilização dos dados provados.
Fotos: Ascom Steve Biko
“É importante conseguirmos passar as informações e conhecimento para os mais jovens, pois de certa forma, os mais jovens têm mais acesso às tecnologias e estão constantemente em contato com a tecnologia, com o algoritmo e com a inteligência artificial sem entender muito bem quais são seus direitos, quais são os riscos que eles estão enfrentando no ambiente digital. E é muito importante para o próprio jovem conseguir se relacionar de forma consciente com a tecnologia e ter acesso ao conhecimento”, falou Johanna.
A pesquisadora afirma ainda que não se trata de simplesmente demonizar as tecnologias, mas de ter clareza de quem e como elas serão operacionalizadas. “Você precisa ter transparência na sua tecnologia, precisa ter parâmetros claros, precisa ter direito e diretrizes éticas para o uso da tecnologia. E quando você não tem isso, você tem o uso abusivo tanto da tecnologia quanto dos seus dados pessoais que podem produzir violação de direitos. Nós temos hoje no mundo uma situação onde a tecnologia tá sendo muito usada para produzir efeitos negativos que têm uma incidência muito maior sobre a população negra, a gente não sabe quem são os atores que se beneficiam com isso que tá produzindo um dano para nosso povo. Por exemplo, a gente não tem clareza sobre os mecanismos que os governos têm pra nos proteger, para regular o uso da tecnologia e para limitar e impedir os efeitos negativos sobre a população”, disse Johanna.
Para a estudante Raíssa Soares, de 16 anos, a palestra de Johanna permitiu descobrir muitas coisas que eu não sabia. “A questão do CPF que você dá nos espaços públicos, eu não sabia que a pessoa poderia monitorar sua vida dessa forma. Eu não sabia o quanto as plataformas digitais são, querendo ou não, um pouco racistas e, às vezes, não ligavam muito para os direitos humanos, então foi um momento que eu tive bastante conhecimento, bastante interessante. E, a partir de agora, a forma em que eu uso a tecnologia vai mudar bastante, vou olhar com outros olhos, tomando mais cuidado com as coisas, então acaba problematizando mais as pequenas coisas que acontecem na internet”, falou a estudante.
Agnes Xavier, 16 anos, considerou a tarde de muito aprendizado e entendimento. “Nesses momentos a gente consegue entender o que acontece com o mundo. A história entre racismo, discriminação, assim como a palestrante, é algo motivador para nossas vidas”, afirmou
Campanha “Tira meu rosto da sua mira”
Para Johanna, a tecnologia de reconhecimento facial é uma tecnologia que “tem se comprovado que traz muito mais efeitos negativos do que benefícios, é um tipo de tecnologia que ela traz vulneração de direitos, vulneração da privacidade, de inversão da presunção da inocência, pois você não é mais inocente. Você está vigiado o tempo todo, porque você é considerado suspeito que precisa ser vigiado”, denuncia a pesquisadora.
Acompanhe mais sobre a campanha no Site Oficial da Campanha
Sobre o Programa Oguntec
O Oguntec é um programa de educação Science, Tecnology, Enginnering and Math/Ciência, Tecnologia, Engenharia e Matemática (STEM) realizado pelo Instituto Cultural Steve Biko e que congrega um conjunto articulado de ações de fomento à ciência, tecnologia e inovação direcionadas para jovens negros e negras. A perspectiva é de estimular a incorporação de saberes científicos e tecnológicos ao ambiente cultural desse segmento, preparando-o para interagir com os novos desafios da “sociedade tecnológica”, aumentando as possibilidades de superação das desigualdades raciais e de gênero, presentes no contexto do mercado de trabalho e distribuição de renda.
SUGESTÕES DE LEITURAS
Lei Geral de Proteção de Dados
Inteligencia artificial aint a woman
Racismo algoritmo: Representação estereotipada de grupos
Racismo algoritmização
Por um feminismo afro-latina americano