Facebook pede desculpa após sugestão racista de algoritmo
Usuários do Facebook relataram ter se deparado com um absurdo caso de racismo no algoritmo da plataforma. Após assistirem a um vídeo de jornal com homens negros, o sistema de inteligência artificial (IA) os questionou se gostariam de continuar a ver “vídeos sobre primatas”, em uma clara atitude racista de associação a macacos.
Em resposta à BBC News, o Facebook pediu desculpas e disse se tratar de um “erro inaceitável”. A rede social desativou o sistema e iniciou uma investigação para descobrir o que ocorreu neste caso. A recomendação ofensiva não foi a primeira e nem será a última de uma longa série de fatos envolvendo preconceitos raciais e IA.
A inaceitável vinculação entre pessoas negras e macacos tem raízes sociais e acabam transportadas para os algoritmos das redes sociais em razão da atitude dos próprios usuários. Com base no aprendizado de máquina, esses sistemas rotulam fotos, vídeos e textos conforme as associações feitas pelas pessoas — quanto mais isso se repete, mais o computador entende se tratar de algo correto e então começa a tomar como verdadeiro.
No ano passado, foi anunciada a criação de um conselho voltado para examinar, entre outras coisas, preconceitos raciais nos algoritmos do Facebook e do Instagram. Como nada mais se falou sobre isso, pressupõe-se que esteja em funcionamento.
No caso do Facebook, ainda não dá para afirmar se foi isso que ocorreu ou se houve trabalho humano por trás. O jeito é aguardar a investigação e cobrar medidas concretas da rede social para coibir essa prática.
Outros casos similares
O fato mais recente relacionado ao racismo algoritmo foi da ferramenta de corte automático de fotos do Twitter. Usuários notaram que o sistema, usado para selecionar trechos mais importantes das imagens, tinha uma tendência a focar em figuras femininas brancas, cortando sem dó homens negros.
Após um concurso realizado com especialistas, os desenvolvedores comprovaram o enfoque racista da ferramenta e outras coisas mais. Eles descobriram, por exemplo, que o algoritmo também era preconceituoso contra palavras escritas em árabe e pessoas gordas.
No TikTok, o problema foi um filtro inseridos de forma automática em vídeos gravados com a ferramenta da plataforma. Rostos de mulheres ganhavam uma aparência mais afilada e clara, além de contornos mais “femininos”, o que deixou muita gente perplexa e indignada. A rede social limitou-se a dizer que foi uma falha corrigida pouco tempo depois.
O mesmo TikTok, em junho, foi acusado de censurar termos antirracismo, mas permitir conteúdo racista. Na ocasião, frases como “I am a neo nazi” (“Eu sou neonazista”) e “I am an anti semetic” (“Eu sou antissemita”) foram aceitas nas legendas, mas “I am a black man” (“Eu sou um homem preto”) era vedada.
Em 2015, o aplicativo Fotos, do Google, rotulou imagens de negros como “gorillas”. A empresa se disse chocada e genuinamente arrependida, embora a correção àquela altura tenha sido apenas censurar buscas de fotos e tags com o termo.
*Com informações do Canal Tech