O YouTube confirmou que reduzirá a recomendação e a distribuição de vídeos que promovem teorias da conspiração que vinculam a disseminação da tecnologia COVID-19 à 5G.
Isso ocorre após uma série de ataques a torres de telefonia celular em algumas regiões – de acordo com o The Guardian, no Reino Unido, torres de sinalização em Birmingham, Merseyside e Belfast foram incendiadas na última semana, em ataques que foram ligados à crescente teoria. Trabalhadores de operadoras de telefonia móvel também foram submetidos a abusos devido a preocupações sobre o papel dos 5Gs na pandemia.
O boato em circulação sugere que os sinais 5G exacerbam a disseminação do vírus. O conceito central refere-se ao uso de 5G em Wuhan, de onde o COVID-19 se originou. A propósito, segundo a teoria, Wuhan também é a primeira região da China a obter cobertura total de 5G, que foi significativamente aumentada em outubro do ano passado, antes do surto. Os cientistas desmentiram a ideia, observando que muitas regiões da China têm cobertura 5G além de Wuhan, enquanto o COVID-19 também está se espalhando rapidamente em muitas regiões que ainda não possuem infraestrutura 5G. No entanto, a teoria vem ganhando força, com até celebridades, como o ator Woody Harrelson, compartilhando novamente o conceito.
O YouTube diz que removerá qualquer conteúdo que viole seus regulamentos, ao mesmo tempo em que reduzirá significativamente o alcance de qualquer vídeo “limítrofe”, que apóia as teorias da conspiração, mas não ultrapassa os limites.
A controvérsia é a mais recente de várias dores de cabeça de conteúdo desse tipo para a plataforma nos últimos tempos – se você está procurando teorias da conspiração e buracos de coelho na Internet, o YouTube provavelmente será onde você acabará.
O gigante dos vídeos online ficou conhecido por hospedar conteúdo da esquerda do centro, enquanto suas recomendações algorítmicas podem levar as pessoas ainda mais longe, reiterando essas idéias, mostrando mais conteúdos semelhantes.
De fato, no ano passado, o The New York Times publicou um perfil de um homem de 26 anos que havia sido “radicalizado” pelo conteúdo do YouTube, destacando preocupações com as instruções “Up Next” da plataforma que, segundo ele, o atraíam cada vez mais para a violência e visões extremistas.
O YouTube está trabalhando para resolver isso. Em janeiro passado, o YouTube anunciou que limitaria as recomendações de conteúdo que chegavam perto de violar as diretrizes da comunidade, mas não ultrapassavam os limites . Os exemplos que o YouTube forneceu nesse caso foram vídeos relacionados a curas milagrosas e teorias da conspiração, incluindo aqueles sobre o 11 de setembro e “pessoas comuns”.
O YouTube descreveu ainda mais as melhorias em seu algoritmo de recomendações para reduzir esses impactos em junho, enquanto, ao mesmo tempo, também executava um teste que mostrava todos os comentários em vídeos na plataforma ocultos por padrão, com os usuários precisando pressionar um botão para visualizar qualquer discussão.
Isso procurou abordar outro elemento de preocupação, relacionado ao comportamento predatório na plataforma, mas as mudanças gerais mostram que os problemas de doutrinação e radicalização são uma preocupação séria – e com mais de 2 bilhões de usuários ativos mensais, a influência do YouTube nesse sentido pode ser significativo.
Faz sentido, então, que o YouTube esteja se movendo para limitar o alcance das teorias de conspiração COVID-19 / 5G. Os riscos aqui são significativos – por um lado, eles identificam falsamente um problema que não é a causa da disseminação do vírus, o que poderia diluir as mensagens das autoridades de saúde pública. Por outro lado, se as torres de celular estiverem sendo danificadas, isso poderá limitar a capacidade das autoridades de fornecer a todas as regiões atualizações relevantes e oportunas.
As informações são essenciais no combate ao COVID-19, pois as pessoas precisam saber o que devem fazer, o que não devem e como podem contribuir para limitar sua propagação.
Pode parecer uma teoria maluca, algo que faz pouco sentido. Mas um vídeo bem elaborado do YouTube pode adicionar credibilidade significativa a esses conceitos, e quando você também considera que o algoritmo de recomendação da plataforma tentará mostrar mais do que está interessado, você pode imaginar que algumas pessoas estão vendo uma linha inteira de vídeos adicionais promovendo a mesma teoria, acrescentando mais peso à ideia.
É importante que o YouTube tome medidas – e não apenas neste caso, mas em todas as cadeias de ideias que podem levar a comportamentos perigosos. O Facebook também anunciou que agora removerá as postagens relacionadas às teorias 5G em relação ao COVID-19.