Recentemente, abordamos a história do canal Rose Tinted Spectrum do YouTube, que foi removido aparentemente sem razão válida, mas felizmente reinstalado. Desde então, realizamos mais investigações e descobrimos que as diretrizes rígidas de conteúdo do YouTube estão criando diversos problemas para historiadores de videogames na plataforma.
Fomos alertados sobre os problemas com o sistema rigoroso de censura do YouTube por John Szczepaniak, historiador de jogos e colaborador frequente do Time Extension, que já foi vítima da política de retirada de conteúdo no passado. Szczepaniak destacou casos envolvendo três criadores de conteúdo – Majuular, The Cellar / Taigen Moon e GoodBadFlicks – todos os quais tiveram seus materiais removidos ou desmonetizados, não devido a reivindicações de direitos autorais, mas em função do próprio conteúdo.
Por exemplo, o excelente estudo de Majuular sobre jogos de terror em FMV foi afetado porque incluía trechos de Phantasmagoria 2, com o criador mencionando nos comentários que o YouTube classificou como “inadequado para anúncios”, levando à necessidade de remover a seção relacionada ao jogo da Sierra. “Quando falo sobre um jogo, gosto sempre de ter uma discussão equilibrada sobre a importância cultural de certos aspectos, mesmo quando esses assuntos são controversos,” diz Majuular. “Tomei cuidado para dar avisos adequados, censurar e fornecer contexto, mas o algoritmo não se preocupa com essas questões.” Por sua vez, a brilhante desconstrução de Taigen Moon do título erótico em FMV, Tender Loving Care, foi retirada do ar por conter conteúdo adulto, enquanto GoodBadFlicks teve um vídeo removido pelo mesmo motivo – algo que o proprietário do canal contesta.
“Me parece que há uma crescente postura censória no YouTube, desmonetizando ou removendo vídeos analíticos que exploram jogos adultos ou temas destinados a adultos,” afirma Szczepaniak. “Não se trata de conteúdo sensacionalista, mas de análises perspicazes com valor histórico. As políticas do YouTube agora tornam basicamente impossível ter qualquer tipo de discussão intelectual.”
Diferentemente de serviços de streaming como Netflix, Disney+ e Amazon Prime Video – que oferecem programas, documentários e filmes para todas as idades – o YouTube enfrenta um desafio mais complicado ao moderar conteúdo, uma vez que este é, em sua maioria, gerado por usuários. Alguns poderiam argumentar que o YouTube tem a obrigação de proteger os espectadores mais jovens de conteúdos prejudiciais, mas o problema parece ser que o serviço de compartilhamento de vídeos está lidando com tanto material que é impossível verificar tudo corretamente – assim, recorreram à inteligência artificial para fazer o trabalho.
“Não diria que o YouTube está sendo mais rigoroso do que antes,” diz Taigen Moon. “Na verdade, eu não me importaria se fosse o caso, pois pelo menos significaria que seria consistente. O problema que persiste é que o YouTube não consegue moderar todo o conteúdo carregado no site, e mesmo que pudesse empregar pessoal suficiente para revisar tudo manualmente, ‘padrões e práticas’ muitas vezes se tornam turvos quando se fala de arte. Assim, eles dependem de robôs que foram treinados para detectar certas coisas nas imagens ou nas transcrições, deixando esse trabalho para um algoritmo de aprendizado de máquina.”
A adoção da IA acelerou em 2024, e 2025 não deve ser diferente, apesar das falhas recorrentes de mecanismos de busca baseados em IA e similares. Taigen Moon tem se mostrado cético há algum tempo. “Uma das razões pelas quais me tornei cético em relação à IA assim que ela se tornou um termo da moda foi porque vi em primeira mão a confiabilidade desses algoritmos de ‘aprendizado’ e quão absolutamente inúteis eles são em larga escala. Ficou evidente, por meio de comentários de insiders e observações, que o algoritmo se tornou tão complexo e sensível a mudanças que os próprios engenheiros do YT não tinham certeza de como funcionava ou como prever seus resultados. É como se você entregasse o controle do site a um bebê de seis meses que consegue apertar botões.”
O volume de conteúdo é um dos problemas, mas o que levou o YouTube a adotar tal postura em relação a discussões mais maduras em sua plataforma? Taigen Moon rastreia isso até cerca de 2017, quando o Wall Street Journal acusou PewDiePie – considerado o maior criador de conteúdo no YouTube na época – de ter opiniões de extrema-direita. “Como a única forma que o YouTube encontrou para monetizar a plataforma eram os anúncios, e os anunciantes estavam se afastando, o YouTube passou por uma fase conhecida como ‘adpocalypse’. As diretrizes de conteúdo se tornaram muito mais rígidas e, como de costume, foram tratadas de forma inconsistente.”
Simplificando, o YouTube precisa de anunciantes para gerar receita, e se há uma coisa que os anunciantes não gostam, é de controvérsias – especialmente porque seus anúncios podem ser exibidos durante o vídeo, o que sugeriria algum tipo de cumplicidade com seu conteúdo e visões. O YouTube já possui um sistema de restrição de idade, mas parece não confiar muito nele, dado os exemplos que mencionamos até agora. A plataforma também exige que todos os criadores de conteúdo marquem um vídeo se ele for explicitamente destinado a crianças – o que, em tese, deveria abrir espaço para conteúdos mais voltados ao público adulto, mas claramente não acontece.
Taigen Moon opta por não monetizar seus vídeos no YouTube e, portanto, foi afetado pelo sistema apenas porque “havia um mamilo no primeiro segmento do vídeo.” Apesar de seguir as diretrizes do YouTube sobre nudez, o robô de IA “viu um mamilo e decidiu agir,” segundo o criador de conteúdo. “Eles mentem e dizem que um humano revisou, mas você sabe que não foi.”
Então, onde isso deixa conteúdos criados exclusivamente para um público mais velho? “Eu não faço vídeos para um público infantil,” diz Taigen Moon. “95% da minha audiência tem entre 18 e 35 anos, então por que eu teria que me submeter aos padrões de conteúdo infantil? Por que não posso rotular meu canal como voltado para ‘público mais velho’ e deixar claro? Não há nada insidioso ou politicamente motivado no comportamento do YouTube; eles estão apenas tentando não se envergonhar.”
Taigen Moon acrescenta que a política do YouTube teve um impacto duradouro na criação de conteúdo. “Eu censurava meu vídeo Harvester em algumas partes, desfocando ações sexuais e filtrando o sangue para que ficasse verde. Até agora, nada de ruim aconteceu; eu só não quero repetir a experiência da última vez que carreguei um vídeo de longa-metragem e ele foi derrubado.”
Outra pessoa que se tornou alvo das políticas do YouTube é Devin Monnens, que produziu um “documentário experimental” chamado Contra vs. Contra em 2007, o qual foi elogiado por Henry Lowood, um dos principais especialistas em machinima. “Em Contra vs. Contra, Devin Monnens mistura Contra, da Konami, e imagens históricas relacionadas ao caso Irã-Contra para criar uma obra que mescla vídeoarte e comentário político,” disse Lowood ao fazer o upload do vídeo para o Internet Archive em 2008. “Um uso provocativo de imagens de videogame.”
O motivo dado para a recente derrubada do vídeo de Monnens foi a exibição de violência gráfica, o que de fato ocorre no vídeo. No entanto, ele argumenta validamente que videogames como Mortal Kombat também apresentam esse tipo de violência (embora não seja real) e parecem não sofrer punições. (Se você fosse excessivamente cínico, poderia observar que vídeos relacionados a fatalidades de Mortal Kombat promovem um produto de uma empresa que anuncia no YouTube.)
Monnens explica que, quando seu vídeo recebe tal reclamação, você tem o direito de apelar. No entanto, geralmente, isso acaba sendo em vão. “Gastei muito mais tempo do que precisava escrevendo um apelo, apenas para ter negado em menos de cinco minutos. Não há como isso ter sido revisado por um humano; suspeito que seja feito através de IA. Este vídeo está no ar desde 2007 e teve menos de 800 visualizações. E, de repente, agora está no radar deles? Estou bastante certo de que a cena que eles contestaram mostrava corpos de vítimas da guerra civil da Nicarágua juxtapostos com imagens dos inimigos da Contra sendo mortos em câmera lenta. As imagens eram de um trailer de um documentário sobre o caso Irã-Contra. O objetivo era mostrar o custo real da guerra.”
A situação claramente preocupou Monnens, que nos apresentou a Danny Ledonne, criador de Super Columbine Massacre RPG!!, para ouvir seus pensamentos sobre o assunto. “YouTube e outros sites estão se corrigindo excessivamente por razões políticas após a panica moral sobre algoritmos que radicalizam indivíduos isolados socialmente,” afirma Ledonne. “Todos nós estamos sendo punidos coletivamente por um conjunto de sites que não conseguem criar versões R-rated de si mesmos, então insistem em efetivamente tornar toda a sua plataforma PG-13. As plataformas de conteúdo precisam se tornar muito mais inteligentes em tornar o acesso seguro e apropriado para a idade, mas também abrangente, para que os adultos possam utilizá-las sem serem constantemente infantisados por ‘padrões comunitários’ com a sensibilidade de uma creche.” Vale notar que os videogames não são a única área do YouTube afetada por isso – até mesmo vídeos sobre história estão sendo impactados.
Em suma, o YouTube está jogando o bebê fora junto com a água suja ao tentar controlar o conteúdo em sua plataforma. “É tentador argumentar que o YouTube é anti-videogame e a favor da guerra, quando a realidade pode ser mais próxima de que esses vídeos são vítimas de um conjunto de regras de políticas de conteúdo programadas em uma IA que arbitra o processo, resultando em uma remoção injusta de conteúdo por eficiência,” conclui Monnens. “É extremamente frustrante e uma erosão perigosa da expressão artística.”