E se os computadores aprenderem a ser racistas?

Segundo Nelson Mandela, ninguém nasce odiando outra pessoa pela cor de sua pele, as pessoas “aprendem” a odiar. Em um mundo cada vez mais hiperconectado, a pergunta que fica é: e as máquinas podem aprender a ser racistas? Estamos caminhando para uma nova, e ainda mais assustadora, fase do racismo? Parece ficção científica, mas isso pode já estar acontecendo.

O cenário atual é de redes sociais reproduzindo livremente conteúdo de ódio, comunidades marginalizadas por plataformas de mobilidade urbana, tecnologias que não reconhecem pessoas de pele negra e banco de imagens que reforçam estereótipos. E pode ainda ficar pior quando a automação, machine learning e a inteligência artificial ficarem ainda mais populares.

Um relatório publicado em 2016 pelo Citibank, em parceria com a Universidade de Oxford, no Reino Unido, previu que 47% dos empregos nos Estados Unidos estão correndo risco de automação, com inteligência artificial. Pesquisadores, ativistas e programadores dizem que assim como bebês, os algoritmos podem incorporar o que pensam seus programadores e, sobretudo, os usuários das plataformas, já que eles aprendem com os dados previamente produzidos.

Por esse motivo, a Universidade Harvard convocou 50 especialistas de várias partes do mundo junto com grandes empresas de tecnologia para um encontro inédito para discutir o tema. A proposta foi debater o discurso de ódio nas redes sociais e sua relação entre o comportamento humano e os algoritmos. O evento foi organizado pelo Berkman Klein Center, dedicado ao tema da internet, e o Shorenstein Center, dedicado às políticas públicas. A preocupação com o tema é grande nos EUA, afinal, os problemas só crescem. O discurso de ódio é cada vez maior em redes sociais e as empresas ainda não sabem quais critérios devem usar para garantir a liberdade de expressão e não ferir o princípio da dignidade humana.

Uma grande corporação de computação, por exemplo, criou um experimento usando machine learning, uma avatar, que em menos de 24h no ar, teve de ser removida porque suas frases racistas faziam apologia ao nazismo. Obviamente que essas frases surgem do vasto conteúdo produzido por humanos nas redes sociais.

A estudante de mestrado do MIT, Joy Buolamwini, descobriu que um sistema de reconhecimento facial só funcionava bem quando ela usava uma máscara branca. O sistema ficou configurado pelo padrão dos seus criadores, homens brancos. A estudante, que fez um documentário e tem um TED Talk bastante comentado sobre o assunto, alerta: “Tal como os vírus, os algoritmos podem espalhar preconceitos numa grande escala e num ritmo rápido”.

No Brasil, a ONG Desabafo Social fez um experimento com bancos de imagens de publicidade e constatou que os algoritmos privilegiavam pessoas brancas em suas buscas mais simples, com palavras como “bebê”, “homem” e “mulher”. Experimente buscar na internet você mesmo.

E quando internet das coisas, realidade virtual e robótica se encontram com o racismo institucional? Imagine um cenário onde a polícia conecta seu sistema de rastreamento facial com drones, usando algoritmos para identificar as pessoas tidas como suspeitas tendo como base o perfil racial? O filme Minority Report, há alguns anos, já mostrou que isso não é uma boa ideia.

Por outro lado, os mesmos algoritmos, hoje ainda contaminados com preconceitos, podem, felizmente, serem reconfigurados para combaterem o racismo online com chatbots identificando violadores da boa conduta e automaticamente comunicando às autoridades os crimes. Porém, isso vai demandar um grande esforço e investimento das empresas de tecnologia para terem mais diversidade em seu corpo de funcionários e uma aproximação verdadeira com a sociedade civil.

As tecnologias em si são neutras. Cabe a nós, humanos, configurá-las para o bem da coletividade e não para nos causar mais problema. Sejamos otimistas.

Para contratar palestra e consultoria de Paulo Rogério Nunes só enviar e-mail para contato@casefala.com.br

*Paulo Rogério Nunes é publicitário, consultor em diversidade na Casé Fala e afiliado ao Berkman Klein Center da Universidade Harvard. Texto publicado no Meio e Mensagem em junho de 2017.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *