A Infobase e a Interativa se reuniram com os melhores especialistas do mercado de tecnologia para desenvolver conteúdos exclusivos. Confira!
A Infobase e a Interativa se reuniram com os melhores especialistas do mercado de tecnologia para desenvolver conteúdos exclusivos. Confira!
Estudos e usuários vêm observando disparidades raciais no desempenho de sistemas de Inteligência Artificial, que privilegiam brancos e discriminam pessoas não-brancas nas redes sociais. Esses algoritmos podem espalhar preconceitos em grande escala em um ritmo acelerado, mas o problema parece ir muito além do meio digital.
Saiba mais sobre a manutenção do racismo por meio dos algoritmos, em nosso infográfico.
O racismo algorítmico ocorre quando as tecnologias de Inteligência Artificial e machine learning discriminam imagens ou qualquer conteúdo digital de pessoas negras ou não-brancas.
Especialistas têm alertado que a IA pode contribuir para reproduzir preconceitos e perpetuar a disseminação de conteúdos racistas, dentro e fora das redes sociais, se as empresas não prestarem atenção aos dados usados para alimentá-la.
2013 —— Busca por “garotas negras” resulta em conteúdo pornográfico
2014 —— No Airbnb, hosts brancos cobram mais que não- brancos por locais equivalentes
2015 —— Google Fotos taggeou pessoas negras como “gorilas”
2016 —— Sistema de anúncio do Facebook permite excluir negros e latinos, prática ilegal
2017 —— Regras do Facebook protegem homens brancos do discurso de ódio
2018 —— APIs de sistemas de reconhecimento facial não entendem gênero/raça de mulheres negras
2019 —— Carros autônomos tem maior chance de atropelar pessoas negras
2020 —— App de transformação de selfie embranquece rostos negros
2021 —— Youtube desmonetiza vídeos com a temática Black Lives Matter
O Twitter vem sendo amplamente criticado por seus algoritmos que priorizam pessoas de pele branca em imagens que também mostram rostos de pessoas negras. A ferramenta tecnológica utilizada pode ter amplos efeitos prejudiciais, como a disseminação de discursos de ódio, violência e reforço de preconceitos raciais e de gênero.
A tecnologia de reconhecimento facial agrava o encarceramento de negros e, fora das redes sociais, os danos do racismo algorítmico podem ser ainda maiores.
Um levantamento da Rede de Observatórios da Segurança em 2019 mostrou que, no Brasil,
90,5% das pessoas presas por reconhecimento facial em câmeras de segurança eram negras.
Mulheres com pele mais escura têm 2x mais chances de ouvir que suas fotos não cumprem as regras de passaporte do Reino Unido, quando as enviam online, do que homens de pele mais clara.
BRANCOS NEGROS
Medo: 1.156 4.839
Surpresa: 3.770 7.401
Raiva: 2.149 4.800
Desgosto: 10.299 10.967
Tristeza: 1.772 1.863
Sorriso: 56.674 50.189
Felicidade: 61.654 52.301
Com base em fotos, rostos negros foram, em média, avaliados como mais raivosos, medrosos e infelizes do que rostos brancos.
No site da Perspective, há uma área onde você pode digitar uma declaração, e ser informado sobre a probabilidade de ser percebida como “tóxica” ou “um comentário rude, desrespeitoso ou irracional, que provavelmente o fará sair uma discussão.”. A pesquisadora do MIT Center for Civic Media, Jessamyn West, expôs no Twitter os seguintes dados:
FRASE VISTA COMO TÓXICA
Eu sou um homem 20%
Eu sou uma mulher 41%
Eu sou lésbica 51%
Eu sou um homem gay 57%
Eu sou sapatona 60%
Eu sou um homem branco 66%
Eu sou uma mulher gay 66%
Eu sou uma mulher branca 77%
Eu sou um homem branco gay 78%
Eu sou um homem negro 80%
Eu sou uma mulher branca gay 80%
Eu sou um homem negro gay 82%
Eu sou uma mulher negra 85%
Eu sou uma mulher negra gay 87%
Fonte: People of Color in Tech (POCIT)
Os exemplos sugerem que a Perspective está determinando a toxicidade com base na presença de certas palavras, como “negra” e “mulher”, que podem aparecer com mais frequência em declarações tóxicas.
Nos EUA, reconhecimento de fala erra mais com vozes de pessoas negras, subindo de 0.19 a 0.35 no áudio de afro-americanos.
Especialistas afirmam não haver uma resposta única para eliminar o racismo e a discriminação de algoritmos, que ainda precisam de muitos debates para fugir de estereótipos. Mas há sugestões e possíveis caminhos.
“Outras dicas mais abrangentes para que a perspectiva branca seja alterada na tecnologia, seria a de ter mais pessoas negras, LGBTQI+ e pessoas com deficiência liderando as criações tecnológicas, e não somente como desenvolvedoras, mas como parte de tomadas de decisões. A invisibilização neste processo interfere muito no produto final.” diz a cientista da computação, Nina da Hora.
É fundamental dar continuidade, aprofundar e debater o tema, para expor as problemáticas e contribuir para as possíveis resoluções do racismo algorítmico.
BBC
https://www.bbc.com/news/technology-54349538
The Intercept
https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil-negros/
PNAS – Proceedings of the National Academy of Sciences of de USA
https://www.pnas.org/content/117/14/7684
The Conversation
https://theconversation.com/emotion-reading-tech-fails-the-racial-bias-test-108404
Blog Tarcizio Silva
https://tarciziosilva.com.br/blog/destaques/posts/racismo-algoritmico-linha-do-tempo/
POCIT – People of Color in Tech
https://peopleofcolorintech.com/articles/how-automated-tools-discriminate-against-black-language/