YouTube usará humanos novamente para moderar os conteúdos.
Durante os meses de confinamento devido à pandemia do coronavírus, a empresa decidiu não ter sua equipe de moderadores de conteúdo, que decidiam quais vídeos obedeciam a sua política de uso, e confiar em seu algoritmo para realizar essa ação.
A medida foi planejada enquanto esses funcionários deveriam trabalhar em casa, para que pudessem se dedicar a outras ações. No entanto, dado que o Google planeja não retornar ao trabalho cara a cara até 2021, a situação parecia estar se alongando.
>YouTube removerá quatro funções das listas de reprodução
O YouTube decidiu que apenas seu algoritmo moderaria o conteúdo, enquanto os funcionários trabalhavam em casa devido à pandemia do coronavírus.
Mas essa não é a verdadeira razão pela qual o YouTube decidiu que seus funcionários controlem o conteúdo novamente. Aparentemente, o trabalho dos bots não estava sendo muito eficaz.
Durante os meses de pandemia, o algoritmo removeu 11,4 milhões de vídeos por supostamente quebrar suas regras. No entanto, durante o mesmo período do ano passado, o número de vídeos excluídos foi muito menor: 9 milhões.
>Shorts: nova plataforma de vídeos curtos do YouTube se parece com TikTok
Aparentemente, esses bots, que usavam Inteligência Artificial para determinar quais vídeos mostravam violência, abuso ou convites ilícitos aos usuários, não estavam fazendo seu trabalho “de forma exaustiva”.
De acordo com o YouTube, eles estavam excluindo mais vídeos do que o normal, então eles decidiram colocar suas equipes de moderação de conteúdo humano de volta ao trabalho.
É verdade que o sistema automatizado acelera o processo de seleção e controle, mas o YouTube garante que os resultados prejudiquem tanto a empresa quanto os criadores de conteúdo que assistem aos seus vídeos removidos injustamente, bem como os usuários do YouTube que podem aproveitar menos vídeos.
>YouTube: veja como o novo design facilitará envios de vídeos pelo Android
Porém, o trabalho de moderador de conteúdo no YouTube não é fácil de fazer e, como em outras redes sociais, também é alvo de muitas críticas. Os funcionários devem passar horas e horas por dia assistindo a inúmeros vídeos completos para determinar se eles podem ser visualizados ou não, geralmente olhando para imagens muito duras.
Recentemente, um ex-moderador do YouTube que permaneceu anônimo processou a empresa por não protegê-los adequadamente, já que seu trabalho afirma que isso lhe causou danos mentais.
Não é de se estranhar, considerando que tinha que assistir regularmente a vídeos de canibalismo, estupros de crianças, suicídios, automutilação, tiroteios em escolas, mutilações, entre outros.
>YouTube: veja como o novo design facilitará envios de vídeos pelo Android
Segundo o denunciante, o YouTube não cumpriu as práticas de segurança a que era exigido: por exemplo, permitir que saíssem da sala quando viram conteúdo muito forte ou não os manter mais de quatro horas por dia moderando o conteúdo.
O autor alega que trabalhou sem descanso e que por causa do seu trabalho é vítima de graves traumas psicológicos. Ele também lembra que sofre de uma depressão que não o deixa dormir, que sofre de pesadelos recorrentes e que não pode ficar em lugares lotados porque sofre de ataques de pânico.
O processo não se refere apenas à pessoa que o impôs, mas também ao conjunto de moderadores do YouTube. Este ex-funcionário quis denunciar a situação para que seus ex-colegas e os novos moderadores não continuem sendo vítimas dos supostos abusos que denuncia no YouTube.
>YouTube: conheça truque para baixar músicas dos vídeos e o playback