Como foi o artigo?

1482530verificação de cookiesO YouTube usa “avaliadores” para avaliar “conteúdo limítrofe” para shadow bans
Funcionalidades
2019/06

O YouTube usa “avaliadores” para avaliar “conteúdo limítrofe” para shadow bans

Sabíamos que o YouTube introduziu algoritmos em janeiro de 2019 para reduzir recomendações de conteúdo “extremista” ou “limítrofe”. Bem, em um evento recente do Code, que aconteceu ao mesmo tempo que a E3, aprendemos um pouco mais sobre o recurso de recomendação do YouTube e como ele irá banir “conteúdo limítrofe”.

Durante uma sessão de perguntas e respostas, Kevin Roose, colunista de tecnologia que escreveu um artigo de sucesso contra o YouTube para o New York Times, perguntou à CEO do YouTube, Susan Wojcicki, se a plataforma estava tendo um efeito “radicalizante” na forma como as pessoas se envolvem com o conteúdo. Wojcicki falou completamente sobre a questão, mas ofereceu algumas dicas sobre como os filtros de shadow ban funcionam para recomendações, o que foi destacado em um tweet de Josh Pescatore.

Se você não conseguir assistir ao vídeo, Wojcicki expõe seus filtros de recomendação para “conteúdo limítrofe”, falando sobre “avaliadores” de como o conteúdo é avaliado, dizendo…

“Oferecemos – como você sabe e pesquisou – uma ampla gama de opiniões. E analisamos todas essas diferentes áreas e vemos que estamos oferecendo uma diversidade de opiniões. Então, quando as pessoas procuram um tópico – seja política, ou religião, ou tricô – vamos oferecer uma variedade de outros conteúdos associados a ele.

 

“Mas levamos muito a sério estas preocupações com a radicalização e é por isso que, no início de janeiro, introduzimos algumas novas mudanças em termos de como lidamos com as recomendações. Eu sei que você está familiarizado com eles; você os referenciou. Mas o que fazemos – apenas para [um pouco] de conhecimento para outras pessoas – é que basicamente temos uma compreensão do conteúdo que é limítrofe. Quando esse conteúdo é limítrofe, determinamos isso com base em uma série de diferentes entrevistadores que usamos e que são representativos de diferentes pessoas nos EUA, e quando determinamos que somos capazes de construir um conjunto de compreensão de o que é considerado conteúdo duvidoso e reduzir nossas recomendações.

 

“Portanto, reduzimos em 50% as recomendações que fazemos de conteúdo duvidoso. E estamos planejando implementar isso em todos os países – em mais 20 países – neste resto do ano.”

Agora, se você quiser ver a entrevista completa, pode fazê-lo em Canal do Recode no YouTube onde eles têm o segmento 41 completo.

Mas para detalhar a parte importante da exposição sobre este tema, precisamos voltar ao tropeço e à recuperação de Wocjicki, quando ela mencionou pela primeira vez “entrevistas”, mas mudou para “avaliadores”.

Então, se aceitarmos, prima facie, o que foi mencionado pela primeira vez antes de abordar o que foi mencionado posteriormente, parece que o YouTube está avaliando o conteúdo com base em entrevistas que realiza com certas pessoas – presumivelmente demográficas diferentes – em todos os EUA, para ver e avaliar se certos tipos de conteúdo são ou não realmente “conteúdo limítrofe”.

O que quer que os entrevistados retornem como resposta, é provável que o YouTube proceda.

No entanto, quando olhamos para a situação da perspectiva do YouTube usando “avaliadores” – ou pessoas que avaliam o conteúdo – então desenvolvemos uma perspectiva ligeiramente diferente sobre como o recurso de recomendação está sendo talhado para os usuários. Os avaliadores parecem apontar especificamente para as pessoas que visualizam e avaliam o conteúdo no YouTube e, com base nisso, o algoritmo determina se vale ou não a pena recomendar o conteúdo considerado “limítrofe”.

Em ambos os casos, é uma situação em que o conteúdo está fora do mecanismo de busca orgânico, recomendando vídeos com base no que você gosta (ou em quem você assina) e, em vez disso, toma essas decisões com base em preferências ideológicas ou determinantes feitos pelos “avaliadores” do YouTube.

Mais especificamente, isto significa que o conteúdo que está sendo classificado como “limítrofe” pelos avaliadores está sendo excluído dos feeds de recomendação. Por sua vez, isso significa que o conteúdo que normalmente apareceria na barra recomendada não está aparecendo lá, criando assim uma sensação de censura, ou o que chamamos de soft shadow ban.

YouTuber Fúria Nerd Armada fez um pequeno vídeo examinando o impacto desse novo recurso na audiência potencial e na aquisição de usuários.

No momento, é difícil avaliar adequadamente o impacto que isso terá em determinados canais.

O YouTube não foi muito aberto sobre os canais exatos atingidos por esse novo recurso e, até agora, dadas todas as outras mudanças que fizeram, as pessoas têm se concentrado principalmente em apenas tentar estabilizar seus canais, em vez de se preocupar com um novo tipo de técnica de supressão.

Isso sem mencionar que todo YouTuber que não era uma fonte de mídia convencional foi impactado negativamente pelo foco do YouTube em seu algoritmo “autoritário”, que viu a plataforma dar mais destaque e promoção à grande mídia e corporações por meio da guia de tendências, conforme revelado em a relatório detalhado de Coffee Break.

Os YouTubers também tiveram que lidar com o VoxAdPocalypse ocorrendo, o que resultou na desmonetização total ou encerramento de vários canais.

Imagino que à medida que o shadow ban para o recurso recomendado continuar a ser implementado em mais regiões ao redor do mundo, seremos capazes de avaliar melhor seu impacto em vários canais e como isso afetará a descoberta de vídeos na plataforma.

(Obrigado pela dica de notícias Weaponized Nerd Rage)

Outros Recursos