Temos inúmeras situações que mostram que as redes sociais, em diferentes plataformas, têm algoritmos racistas. O assunto não é novidade, mas está novamente em pauta, trazendo, assim, mais uma oportunidade para olharmos para a questão, que precisa, urgentemente, ser debatida.
Afinal, se conjuntos de códigos estão cortando pessoas negras de imagens ou ocultando postagens de usuários negros do feed de seus seguidores, algo bem errado está acontecendo, não é mesmo?
Uma vez que privilegiam pessoas brancas em detrimento de pessoas de outras raças — mostrando somente rostos brancos, dando maior alcance a publicações de brancos e ocultando pessoas pretas, indígenas e asiáticas —, práticas desse tipo são muito mais do que simples “falhas” dos programas. Elas podem, sim, ser consideradas ações discriminatórias.
Ocorre que a semelhança com a realidade aqui não é mera coincidência: os vieses desses sistemas refletem o racismo estrutural que existe na nossa sociedade. E o pior: podem ajudar a alimentá-lo e disseminá-lo. Nesse cenário, é fundamental que empresas de tecnologia invistam em promover maior representatividade e diversidade nas suas equipes.
Falhas ou algoritmos racistas?
Nos últimos anos, diversos episódios trouxeram à tona a existência do racismo algorítmico em softwares que utilizam a Inteligência Artificial. Há, por exemplo, vídeos na internet mostrando sistemas de reconhecimento facial que não conseguem identificar rostos negros.
No entanto, a questão ganhou mais destaque quando a sua presença ficou evidente também nas redes sociais.
Mais recentemente, o estopim da nova discussão sobre algoritmos racistas foi uma constatação de usuários do Twitter. Depois de inúmeros testes, eles perceberam que o recurso de corte automático de fotos da rede social privilegia rostos brancos. A ferramenta foi criada para ajustar as imagens no feed principal focando, supostamente, na sua parte mais importante e cortando o restante.
Contudo, o que se concluiu depois de várias publicações feitas justamente para avaliar o funcionamento do algoritmo da plataforma, é que o sistema simplesmente costuma cortar rostos negros, independentemente do número de indivíduos negros presentes nas fotos.
Estimulados por essas “denúncias”, usuários do Instagram também começaram a realizar testes nesse sentido. O comportamento discriminatório nos experimentos se repetiu: a rede social parece ocultar da linha do tempo dos seguidores as postagens de usuários negros e as publicações nas quais aparecem pessoas não brancas.
Com a intenção de revelar as supostas “falhas” e, de alguma forma, subverter o algoritmo racista, usuários negros do Instagram passaram a fazer posts com imagens aleatórias de indivíduos brancos. O resultado foi um engajamento muito maior do que nas demais postagens, além de seguidores confirmando que os posts desses perfis apareceram apenas agora pela primeira vez no seu feed.
Mas essas constatações não são levantadas apenas de experiências de usuários. Este post no Twitter, do Tarcizio Silva, traz estudos e casos que demostram o quanto os algoritmos privilegiam pessoas brancas:
Vamos fazer uma thread com 20 artigos sobre racismo algorítmico, visão computacional e reconhecimento facial?
— Tarcizio Silva #Orlando65 #Erika50700 (@tarciziosilva) September 20, 2020
Chega aí -> pic.twitter.com/rZkbhl51Xs
Os algoritmos e os vieses
É possível chamar de “falha” uma ação automática de um sistema que está se comportando exatamente do modo como foi programado? O ponto crucial aqui não está nos algoritmos em si, mas na forma como são construídos — e, veja bem, pelos seres humanos.
Os algoritmos solucionam problemas fundamentando-se em um conjunto fechado de instruções previamente definidas por programadores. De fato, por trás da criação da IA, estão pessoas — e os seus atos. Estes, por sua vez, são guiados por vieses inconscientes.
Eles são preconceitos incorporados e sistêmicos que controlam e condicionam pensamentos e julgamentos automáticos. Além disso, são baseados em estereótipos de raça, gênero, classe, idade e de outros grupos minorizados.
Em outras palavras, sendo modelos construídos por humanos, os algoritmos não são neutros, mas, sim, enviesados. Isso significa, portanto, que essas ferramentas refletem, na verdade, os problemas estruturais da nossa sociedade.
Viés da afinidade e viés da confirmação
Para entendermos melhor como os vieses atuam e se fazem presente, vamos falar um pouco sobre dois tipos comuns de vieses, que também estão associados aos algoritmos racistas das redes sociais.
O viés da afinidade revela a tendência que temos de avaliar melhor e de dar preferência às pessoas parecidas conosco, seja em termos de raça, gênero, história de vida ou características pessoais.
Levando para o contexto corporativo, é extremamente comum, por exemplo, que gestores contratem profissionais nos quais identificam atitudes e backgrounds semelhantes aos seus. Essa prática faz com que equipes sejam formadas por pessoas muito parecidas, o que, na verdade, “enfraquece” o time em vez de fortalecê-lo.
Existe também o chamado viés da confirmação, que nos induz a buscar automaticamente fatos que confirmem as nossas crenças pré-estabelecidas. Logo, em diferentes situações, ele orienta o nosso olhar para informações que representam essas confirmações e “apaga” ou desconsidera os outros dados, que, muitas vezes, seriam bem mais relevantes do que aqueles que foram considerados.
Diversidade e inclusão no setor de tecnologia podem mudar algoritmos racistas
Visto que entendemos que as falhas não estão nas ferramentas utilizadas pelas plataformas digitais e que os algoritmos racistas refletem um problema social, a pergunta é: de que forma podemos evitar a reprodução desses vieses no mundo digital?
Infelizmente, a ausência de representatividade negra no setor de tecnologia é, ainda, mais marcante do que no mercado de trabalho em geral. A falta de participação dos negros na produção de recursos tecnológicos, evidentemente, é um dos principais fatores a incentivar a construção de algoritmos enviesados.
É por isso que a diversidade e a inclusão nesse setor precisam ser fortemente incentivadas. Nesse sentido, são necessárias ações concretas que resultem em times mais diversos e inclusivos nas empresas de tecnologia.
E mais: por vários motivos, há urgência nessa mudança. Os algoritmos estão cada vez mais presentes em todos os âmbitos da nossa vida. Portanto, engana-se quem acredita que ações desse tipo se restringem às redes sociais.
O certo é que, enquanto não forem tomadas as medidas adequadas, a tecnologia seguirá disseminando vieses e estimulando preconceitos. E, em tempos de polarização, as consequências podem ser bem mais graves do que imaginamos.