Neste post faço uma reflexão baseada na minha contribuição para o Clube de Leitura do Inspirada na Computação que está comentando semanalmente o livro “Comunidades, Algoritmos e Ativismos Digitais: Olhares Afrodiaspóricos” organizado pelo Tarcizio Silva. O capítulo em questão é o 08 com o artigo “Racismo e Sexismo em Bancos de Imagens Digitais: Análise de Resultados de Busca e Atribuição de Relevância na Dimensão Financeira/Profissional” da Fernanda Carrera.
Foto do livro tuitada pelo Tarcizio Silva
No artigo, a autora Fernanda Carrera aborda os preconceitos e estereótipos que são reproduzidos pelos bancos de imagens digitais, através de sua pesquisa, onde realizou a coleta de imagens dadas como mais relevantes em três bancos de imagens digitais diferentes (Shutterstock, Stockphotos e Getty Images). O artigo está no capítulo 08 do livro Comunidades, Algoritmos e Ativismos Digitais: Olhares Afrodiaspóricos que foi organizado pelo Tarcízio Silva e está com sua versão em pdf com acesso gratuito aqui.
A ideia neste post é pontuar e comentar algumas partes do artigo da Fernanda e estender a discussão para como nós, da área de tecnologia, podemos ser mais críticos com a temática. Então, a recomendação é: se você gostar do post mas não leu ainda o livro, dê uma olhada na versão pdf e depois compre a versão física que está com um preço bem acessível.
O primeiro ponto que aqui dou destaque é como os bancos de imagens digitais reproduzem uma representação distorcida da sociedade, reforçando estereótipos de gênero e raça. Assim, como podemos esperar que o material que é produzido e exposto dessa maneira contribua para uma sociedade que busca quebrar exatamente esses estereótipos?
A partir deste ponto , podemos puxar um fio já conhecido de que os corpos negros são associados à pobreza, à submissão, enquanto os corpos brancos representam sucesso financeiro e pessoal. Famílias pobres tem cor e gênero: são mulheres negras, sozinhas e com filhos. As famílias ricas são brancas e sorridentes. Mas mais interessante ainda é que nas imagens coletadas na pesquisa não necessariamente havia indícios de luxo ou miséria nas fotos, uma criança negra sorrindo num chão de terra batida era suficiente para assimilar a pobreza. O nome disso? Ultimamente está todos os dias nos trendings do twitter: r-a-c-i-s-m-o.
E o sexismo é tão evidente quanto o racismo nesse contexto. Quando a busca é pela tag boss, os resultados relevantes mostram um padrão masculino e branco, enquanto a busca por secretary mostram como resultados relevantes mulheres. Sendo assim, as mulheres são raridades enquanto chefes, mas presentes enquanto secretárias. Uma relação sexista também é vista na busca por wealth (riqueza): as mulheres até estão presentes, desde que no papel de companheiras de homens brancos de sucesso. A falta de esforço das empresas para mudar essa situação é tão impressionante que qualquer campanha feita parece piada. Fazem uma hashtag para mostrar trabalhos feitos por mulheres ou separam um espaço só para mostrar a minoria, até mesmo colocam como filtro a etnia ou gênero. Isso pode ser chamado de inclusivo? Por aqui isso é muito parecido com o termo de segregação. Os resultados relevantes continuam sendo brancos e masculinos, exceto se você ir até a “sessão especial”, onde mulheres e negros ganham visibilidade positiva.
Mas e como nós, pessoas da área da tecnologia, podemos contribuir para quebrar esse ciclo materiais estereotipados -> recomendações estereotipadas -> produtos estereotipados?
Nos últimos tempos venho aprendendo sobre Data Feminism. No livro escrito por Catherine D’Ignazio e Lauren Klein, o conceito é introduzido e explicado, chamando atenção para a necessidade de questionarmos os dados que temos, o quão fiéis eles são à realidade e quais vieses estão presentes neles. Ou seja, nosso papel é o da crítica: observar com olhar crítico o tipo de dado que chega até nossas mãos, o tipo de algoritmo que estamos construindo e o tipo de produto que estamos entregando.
E qual seria a boa forma de conseguir ter esse criticismo? Com diversidade. Equipes diversas trazem diferentes olhares para o mesmo ponto. Imaginem ter mais mulheres e negros desde a confecção do código que recomenda as tags usadas nos bancos de imagens digitais até a gerência que aprova ou não o que foi feito? Provavelmente alguém diria: olha, algo de errado não está certo.
É a forma de se resolver tudo? Não. Mas é um primeiro passo. Utilizar um pouco do movimento “não me enxergo, não consumo” como forma de pressionar decisões verdadeiramente inclusivas. Nós, que fazemos partes de minorias e estamos dentro desse sistema, precisamos ser críticos não só em casa, mas também dentro do ambiente de trabalho para que nas próximas gerações isso esteja tão enraizado quanto às boas práticas de programação.
E aos que não são partes de grupos minoritários vale a abertura do seu espaço para ampliar o debate aos que são. Você vai pedir demissão? Não. Mas quando uma mulher apontar sexismo, não apenas dê ouvidos, mas a apoie. Quando uma pessoa negra apontar racismo, chame atenção para que outros escutem o que ela está dizendo. Quando qualquer minoria apontar algo errado no tratamento para ela, coloque o holofote que está naturalmente no seu lugar de privilégio para ela. E assim, só assim, podemos começar a pensar em fazer da tecnologia um local mais saudável e que desenvolve produtos menos estereotipados.
Links Úteis: