Algoritmos e preconceito: o que uma coisa tem a ver com a outra?
Desde comprar em um e-commerce até ler artigos no LinkedIn, algoritmos têm desempenhado um papel crucial em como nos relacionamos com…
Desde comprar em um e-commerce até ler artigos no LinkedIn, algoritmos têm desempenhado um papel crucial em como nos relacionamos com produtos digitais.
É difícil encontrar profissionais de marketing que não se preocupem com o algoritmo e o rankeamento do Google, por exemplo. Até mesmo nas tarefas mais cotidianas, como ouvir sua playlist de Descobertas da Semana no Spotify, o algoritmo está presente, trabalhando para retornar as músicas que você tem maior probabilidade de curtir.
Com algoritmos por todos os lados, seria estranho se não nos importássemos com o lado negativo tanto quanto nos importamos com o positivo. Digo isso porque, mesmo com os avanços incríveis do Machine Learning, alguns algoritmos podem não performar como esperamos e ser motivo de uma grande dor de cabeça.
O que acontece é que algoritmos podem ser falhos, como qualquer outro programa de computador feito por uma mente humana. Mais do que isso, algoritmos podem ser treinados de maneira enviesada e, infelizmente, preconceituosa.
O algoritmo é treinado a pensar como a pessoa que o criou. E, até muito recentemente, a diversidade no mercado de TI não era muito significante. Na verdade, esse mercado sempre foi predominantemente de pouquíssima diversidade.
Esse fato é limitador. Se os criadores de algoritmos pensam de maneira preconceituosa, dificilmente seus códigos agirão de forma diferente. Isso se torna um problema ainda maior quando vemos que aplicações e interações digitais estão ficando cada vez mais complexas. Imagine deixar um algoritmo enviesado tomar algum tipo de decisão delicada e tensa de âmbito financeiro, medicinal ou jurídico.
Um exemplo: o governo chinês tem acompanhado o comportamento de seus cidadãos para premiar os “mais comportados” com descontos e obtenção mais rápida de vistos. Nos EUA, há um algoritmo que ajuda instituições financeiras a ver a probabilidade de receber o dinheiro de um empréstimo de volta de acordo com os dados dos consumidores. Isso ajuda as instituições a determinar qual será o valor da taxa de juros a ser cobrado de cada cliente.
Pense em como essa decisão afeta as pessoas em geral. Quantos dólares a mais serão cobrados de pessoas que mais necessitam de um empréstimo? Isso ajuda ou aprofunda ainda mais as diferenças sociais existentes?
Outro exemplo: imagine a quais conclusões uma tecnologia enviesada de reconhecimento facial pode chegar. Parece até um script de Black Mirror, não?
É claro que há outros fatores em jogo. Como o uso de dados, a construção e o funcionamento de algoritmos têm que ser transparentes. Devemos saber como as empresas usam nossos dados e como isso afeta desde a nossa rotina até as decisões mais importantes que temos que tomar.
Porém, ao que diz respeito à construção de algoritmos mais justos e claros, há uma questão urgente em que devemos trabalhar: a inclusão de pessoas que venham de realidades diferentes. Unir diferentes perspectivas é a única maneira de garantir que algoritmos terão cada vez menos vieses e começarão a entender situações sociais complexas.
Isso não vai acontecer, no entanto, enquanto a tecnologia não se unir a outras áreas de conhecimento. História, antropologia, ética e sociologia são ciências que devem ser amplamente discutidas para a criação de mecanismos inteligentes que compreendam nosso contexto histórico e social. Sem esse entendimento, o combate a algoritmos preconceituosos cai por terra.