Twitter nos permitirá editar fotos após sua polêmica do algoritmo racista.
Embora essa polêmica tenha se concentrado nos Estados Unidos, no Brasil a repetimos. Você deve ter visto um tweet bastante polêmico em que um usuário testou os algoritmos de posicionamento de fotos em visualizações, colocando uma pessoa preta e uma branca na mesma foto. O algoritmo, preferencialmente, cabe na pessoa branca.
Isso atraiu a ira dos usuários, chamando o algoritmo do Twitter de racista. Tamanha foi a agitação que a rede social de Jack Dorsey respondeu e garantiram que revisariam o corte automático de imagens e, além de nos dar mais opções para que os usuários possam cortá-las à vontade, vai melhorar o algoritmo.
Isso não impediu que a rede social se posicionasse. Eles explicam que após a análise não perceberam “preconceito racial ou de gênero”, mas admitem que isso pode ser um “dano potencial” para muitos usuários.
>CEO do twitter afirma que Bitcoin e blockchain são o futuro da rede social
O experimento foi realizado pelo usuário @bascule no Twitter. Ele tuitou uma imagem de Barack Obama, ex-presidente dos Estados Unidos, e uma pessoa branca totalmente separada nas pontas por um espaço em branco. Se o Twitter detectar uma imagem que não está bem enquadrada, ele a ajustará para que os usuários possam ver uma prévia da imagem.
A ideia desse tweet era ver por quem o algoritmo tinha preferência. Os resultados foram infelizmente os esperados; Cada vez que @bascule carregava as imagens, o algoritmo tinha uma preferência pela pessoa branca, Mitch McConnell, omitindo Obama completamente. O tweet em questão se tornou amplamente viral.
> Twitter: aviso para não compartilhar algo sem ler é sucesso e virá em breve
Não é de forma alguma a primeira vez que vimos preconceitos raciais aplicados à Inteligência Artificial. Normalmente, o problema é que muito menos fotos de pessoas com pele negra são usadas para treinar esses algoritmos do que fotos de pessoas brancas, o que faz com que tenham preferências por essa pele.
Os modelos de IA funcionam a partir de um banco de dados que depende de um grande número de entradas com as quais a IA precisa ‘aprender’. Claro que existem exemplos como o PULSE, um modelo que tem levado a denúncias de racismo devido às suas inconsistências no que diz respeito ao reconhecimento de pessoas não brancas.
>Mensagens de voz no Twitter: você poderá enviá-las por mensagem privada
Em um comunicado, o Twitter garantiu que realizou testes internos e que até agora “nossas análises não mostraram preconceito racial ou de gênero”. Reconhecemos que a maneira como cortamos as fotos implica automaticamente que existe um potencial de dano. “A empresa fará testes adicionais e dirá que” estão sendo exploradas maneiras de abrir nossa análise para que outros possam nos ajudar a nos responsabilizar. “
Difícil de acreditar quando você considera que outros usuários pegaram o exemplo do tweet viral e fizeram seus próprios experimentos. Aconteceu exatamente o mesmo com imagens de personagens de desenhos animados e até mesmo com fotos de cachorros com pelo preto e branco; a preferência era sempre a mesma.
Eles buscarão “diminuir nossa confiança” no corte automático, introduzido em 2018, e esperam dar às pessoas “mais opções” para cortar as imagens e visualizar como a imagem ficará depois de publicada.
>Twitter: algoritmo que seleciona fotos com suposta preferência gera polêmica