O YouTube deu início a uma ofensiva contra canais que produzem trailers falsos de filmes e séries utilizando inteligência artificial, desmonetizando pelo menos dois dos mais populares: KH Studio, com 684 mil inscritos, e Screen Culture, que soma 1,4 milhão de seguidores. A medida, implementada no final de março de 2025, atinge criadores que acumulam milhões de visualizações com vídeos que misturam cenas geradas por IA e imagens reais, muitas vezes sem indicar claramente que o conteúdo é fictício. A decisão chega após denúncias de que estúdios como Warner Bros. Discovery e Sony tentaram lucrar com esses vídeos, redirecionando a receita publicitária para si, em vez de exigir sua remoção. O caso reacende o debate sobre o uso de IA na criação de conteúdo digital e os limites éticos e legais dessa prática. No KH Studio, trailers imaginários como um “James Bond” com Henry Cavill já ultrapassaram 10 milhões de views, enquanto o Screen Culture é conhecido por “teasers” de filmes reais, como “Superman”, potencializados por efeitos artificiais.
A ação do YouTube reflete uma resposta às políticas da plataforma, que proíbem conteúdo enganoso ou que viole direitos autorais. Os trailers falsos, apelidados de “slop” no meio digital, são produzidos em massa para atrair cliques, explorando a curiosidade dos fãs sobre franquias conhecidas, como Marvel e DC Comics, ou criando sequências fictícias de clássicos como “Forrest Gump”. Apesar da popularidade, a falta de transparência nos títulos e thumbnails, que raramente avisam sobre a natureza artificial do material, tem gerado críticas. O fundador do KH Studio lamentou a desmonetização, afirmando que há três anos trabalha em tempo integral no canal, com a intenção de explorar “possibilidades criativas”, e não de enganar o público.
No caso do Screen Culture, o responsável pelo canal defendeu que seus vídeos não causam prejuízo e que muitos usuários entendem que não são oficiais. Ele destacou que o canal também publica trailers legítimos, sugerindo que a produção com IA complementa a promoção de filmes reais. A desmonetização, no entanto, atinge tanto os criadores quanto os estúdios que lucravam com os anúncios, levantando questões sobre quem deveria se beneficiar desse tipo de conteúdo. Com a IA cada vez mais presente na produção digital, o YouTube enfrenta o desafio de equilibrar criatividade, direitos autorais e a integridade da plataforma.
Primeiros passos contra trailers falsos
O Screen Culture, liderado por Nikhil P. Chaudhari, da Índia, cresceu exponencialmente nos últimos dois anos, alcançando 1,4 bilhão de visualizações com cerca de 2.700 vídeos. O canal usa IA para criar trailers que imitam produções reais, como “The Fantastic Four: First Steps”, misturando cenas reais com efeitos artificiais. Já o KH Studio aposta em ideias ousadas, como um “Squid Game” estrelado por Leonardo DiCaprio, acumulando 560 milhões de views desde sua criação.
A desmonetização veio dias após uma investigação revelar que estúdios de Hollywood, em vez de emitir strikes de copyright, preferiam redirecionar os lucros dos anúncios. Warner Bros. Discovery, por exemplo, reivindicou receita de trailers falsos de “Superman” e “House of the Dragon”. A prática, que gerou controvérsia, foi interrompida pelo YouTube, que suspendeu ambos os canais do programa de parceria por violarem regras contra conteúdo repetitivo ou manipulador.
O que são os trailers falsos com IA
Trailers falsos feitos com inteligência artificial combinam clipes de filmes existentes com cenas geradas por ferramentas de IA, muitas vezes replicando a aparência de atores famosos. No Screen Culture, os vídeos focam em filmes aguardados, adicionando detalhes fictícios que atraem fãs, como um “Superman” com visuais aprimorados. O KH Studio, por outro lado, cria narrativas completamente inventadas, como um “Jurassic World” com elencos fictícios, sem relação com projetos reais.
- Exemplos de trailers falsos:
- Screen Culture: “Superman” com efeitos IA sobre imagens reais.
- KH Studio: “James Bond” com Henry Cavill e Margot Robbie.
Reação dos criadores e estúdios
O impacto da desmonetização foi sentido imediatamente pelos criadores. O fundador do KH Studio, que não revelou seu nome, disse que o canal era seu trabalho principal há três anos, com mais de 600 mil inscritos. Ele argumentou que os vídeos eram “conceitos artísticos” para entreter, mas a classificação como “conteúdo enganoso” pelo YouTube o pegou desprevenido. No Screen Culture, Nikhil P. Chaudhari lidera uma equipe de 12 editores e afirmou que apenas 10% de seus vídeos tiveram monetização reivindicada por estúdios, sugerindo uma aplicação inconsistente de direitos autorais.
Estúdios como Sony e Paramount também lucraram com os trailers, mas a decisão do YouTube mudou o jogo. Antes, essas empresas evitavam strikes para manter os vídeos no ar, lucrando com os anúncios. Agora, com a receita cortada, os canais podem apelar, mas as chances de reverter a suspensão são incertas, dado o rigor das políticas da plataforma.

Debate sobre IA e direitos autorais
A ascensão da IA na criação de conteúdo trouxe um dilema jurídico e ético. Ferramentas como Midjourney e ChatGPT, usadas para gerar imagens e roteiros, são treinadas com materiais protegidos por direitos autorais, o que gera disputas. Nos Estados Unidos, o SAG-AFTRA, sindicato dos atores, criticou o uso não autorizado de imagens de artistas em trailers falsos, chamando-o de “corrida ao fundo do poço”. No Brasil, a discussão ainda é incipiente, mas o caso do YouTube pode influenciar futuras regulamentações.
Canais como Screen Culture e KH Studio exploram uma área cinzenta. Embora alguns vídeos tragam avisos de “trailer conceitual”, a falta de clareza em títulos e thumbnails confunde os espectadores, que muitas vezes acreditam estar vendo prévias oficiais. O termo “slop”, usado para descrever esse conteúdo de baixa qualidade produzido em massa, ganhou força nas redes sociais, refletindo a saturação de materiais artificiais.
Cronologia do caso no YouTube
A polêmica dos trailers falsos com IA tem marcos claros nos últimos meses. Veja os principais eventos:
- 2018: Epic Games inicia oferta de jogos grátis no PC, pavimentando o caminho para promoções digitais.
- 2023: Screen Culture e KH Studio intensificam uso de IA em trailers.
- 28 de março de 2025: Investigação expõe lucros de estúdios com vídeos falsos.
- 30 de março de 2025: YouTube desmonetiza os canais após denúncias.
- 1º de abril de 2025: Notícia da desmonetização ganha destaque global.
Impacto nos criadores de conteúdo
A suspensão da monetização afetou diretamente a receita de KH Studio e Screen Culture. O primeiro, com 560 milhões de visualizações, já produziu trailers como “Back to the Future 4” com Tom Holland, enquanto o segundo criou mais de 20 versões falsas de “Fantastic Four”. Ambos os canais dependiam dos anúncios para sustentar suas operações, e a decisão do YouTube ameaça sua viabilidade financeira.
Para Nikhil P. Chaudhari, do Screen Culture, os vídeos ajudam a promover filmes, funcionando como marketing gratuito para os estúdios. Ele alega que a maioria dos espectadores diferencia seus “conceitos” dos trailers oficiais, mas a confusão gerada pelos thumbnails hiper-realistas contraria essa visão. O KH Studio, por sua vez, foca em “o que poderia ser”, mas também foi penalizado por enganar usuários desavisados.
A resposta do YouTube às críticas
O YouTube não emitiu um comunicado oficial, mas a desmonetização sugere uma reação às denúncias de estúdios lucrando com conteúdo falso. As políticas da plataforma exigem que criadores transformem significativamente materiais emprestados e proíbem vídeos feitos apenas para atrair views. A ação contra KH Studio e Screen Culture pode ser o início de uma repressão mais ampla a conteúdos de IA que violem essas regras.
A plataforma já enfrentou desafios semelhantes com deepfakes e desinformação. Em 2024, o YouTube removeu vídeos que usavam IA para imitar celebridades em contextos falsos, e a nova medida reforça essa postura. A confusão causada por trailers falsos, que muitas vezes aparecem acima dos oficiais em buscas, também pressionou a empresa a agir.
O futuro da IA no entretenimento digital
A controvérsia expõe a dificuldade de regular o uso de IA em plataformas digitais. Enquanto alguns veem os trailers falsos como criatividade inofensiva, outros apontam os riscos à propriedade intelectual e à confiança do público. No Brasil, onde o YouTube tem mais de 120 milhões de usuários ativos, segundo dados de 2024, o impacto de conteúdos como esses é significativo, especialmente entre fãs de franquias populares.
A tecnologia de IA continua evoluindo, e casos como o de “Studio Ghibli” falsificado pelo ChatGPT mostram que o debate está longe de acabar. Os estúdios podem buscar acordos mais rígidos com plataformas, enquanto criadores de conteúdo terão que adaptar suas estratégias para sobreviver sem monetização.
- Fatos sobre os canais afetados:
- Screen Culture: 1,4 milhão de inscritos, 1,4 bilhão de views.
- KH Studio: 684 mil inscritos, 560 milhões de views.
- Vídeos mais vistos: “Superman” e “James Bond” falsos com milhões de cliques.

O YouTube deu início a uma ofensiva contra canais que produzem trailers falsos de filmes e séries utilizando inteligência artificial, desmonetizando pelo menos dois dos mais populares: KH Studio, com 684 mil inscritos, e Screen Culture, que soma 1,4 milhão de seguidores. A medida, implementada no final de março de 2025, atinge criadores que acumulam milhões de visualizações com vídeos que misturam cenas geradas por IA e imagens reais, muitas vezes sem indicar claramente que o conteúdo é fictício. A decisão chega após denúncias de que estúdios como Warner Bros. Discovery e Sony tentaram lucrar com esses vídeos, redirecionando a receita publicitária para si, em vez de exigir sua remoção. O caso reacende o debate sobre o uso de IA na criação de conteúdo digital e os limites éticos e legais dessa prática. No KH Studio, trailers imaginários como um “James Bond” com Henry Cavill já ultrapassaram 10 milhões de views, enquanto o Screen Culture é conhecido por “teasers” de filmes reais, como “Superman”, potencializados por efeitos artificiais.
A ação do YouTube reflete uma resposta às políticas da plataforma, que proíbem conteúdo enganoso ou que viole direitos autorais. Os trailers falsos, apelidados de “slop” no meio digital, são produzidos em massa para atrair cliques, explorando a curiosidade dos fãs sobre franquias conhecidas, como Marvel e DC Comics, ou criando sequências fictícias de clássicos como “Forrest Gump”. Apesar da popularidade, a falta de transparência nos títulos e thumbnails, que raramente avisam sobre a natureza artificial do material, tem gerado críticas. O fundador do KH Studio lamentou a desmonetização, afirmando que há três anos trabalha em tempo integral no canal, com a intenção de explorar “possibilidades criativas”, e não de enganar o público.
No caso do Screen Culture, o responsável pelo canal defendeu que seus vídeos não causam prejuízo e que muitos usuários entendem que não são oficiais. Ele destacou que o canal também publica trailers legítimos, sugerindo que a produção com IA complementa a promoção de filmes reais. A desmonetização, no entanto, atinge tanto os criadores quanto os estúdios que lucravam com os anúncios, levantando questões sobre quem deveria se beneficiar desse tipo de conteúdo. Com a IA cada vez mais presente na produção digital, o YouTube enfrenta o desafio de equilibrar criatividade, direitos autorais e a integridade da plataforma.
Primeiros passos contra trailers falsos
O Screen Culture, liderado por Nikhil P. Chaudhari, da Índia, cresceu exponencialmente nos últimos dois anos, alcançando 1,4 bilhão de visualizações com cerca de 2.700 vídeos. O canal usa IA para criar trailers que imitam produções reais, como “The Fantastic Four: First Steps”, misturando cenas reais com efeitos artificiais. Já o KH Studio aposta em ideias ousadas, como um “Squid Game” estrelado por Leonardo DiCaprio, acumulando 560 milhões de views desde sua criação.
A desmonetização veio dias após uma investigação revelar que estúdios de Hollywood, em vez de emitir strikes de copyright, preferiam redirecionar os lucros dos anúncios. Warner Bros. Discovery, por exemplo, reivindicou receita de trailers falsos de “Superman” e “House of the Dragon”. A prática, que gerou controvérsia, foi interrompida pelo YouTube, que suspendeu ambos os canais do programa de parceria por violarem regras contra conteúdo repetitivo ou manipulador.
O que são os trailers falsos com IA
Trailers falsos feitos com inteligência artificial combinam clipes de filmes existentes com cenas geradas por ferramentas de IA, muitas vezes replicando a aparência de atores famosos. No Screen Culture, os vídeos focam em filmes aguardados, adicionando detalhes fictícios que atraem fãs, como um “Superman” com visuais aprimorados. O KH Studio, por outro lado, cria narrativas completamente inventadas, como um “Jurassic World” com elencos fictícios, sem relação com projetos reais.
- Exemplos de trailers falsos:
- Screen Culture: “Superman” com efeitos IA sobre imagens reais.
- KH Studio: “James Bond” com Henry Cavill e Margot Robbie.
Reação dos criadores e estúdios
O impacto da desmonetização foi sentido imediatamente pelos criadores. O fundador do KH Studio, que não revelou seu nome, disse que o canal era seu trabalho principal há três anos, com mais de 600 mil inscritos. Ele argumentou que os vídeos eram “conceitos artísticos” para entreter, mas a classificação como “conteúdo enganoso” pelo YouTube o pegou desprevenido. No Screen Culture, Nikhil P. Chaudhari lidera uma equipe de 12 editores e afirmou que apenas 10% de seus vídeos tiveram monetização reivindicada por estúdios, sugerindo uma aplicação inconsistente de direitos autorais.
Estúdios como Sony e Paramount também lucraram com os trailers, mas a decisão do YouTube mudou o jogo. Antes, essas empresas evitavam strikes para manter os vídeos no ar, lucrando com os anúncios. Agora, com a receita cortada, os canais podem apelar, mas as chances de reverter a suspensão são incertas, dado o rigor das políticas da plataforma.

Debate sobre IA e direitos autorais
A ascensão da IA na criação de conteúdo trouxe um dilema jurídico e ético. Ferramentas como Midjourney e ChatGPT, usadas para gerar imagens e roteiros, são treinadas com materiais protegidos por direitos autorais, o que gera disputas. Nos Estados Unidos, o SAG-AFTRA, sindicato dos atores, criticou o uso não autorizado de imagens de artistas em trailers falsos, chamando-o de “corrida ao fundo do poço”. No Brasil, a discussão ainda é incipiente, mas o caso do YouTube pode influenciar futuras regulamentações.
Canais como Screen Culture e KH Studio exploram uma área cinzenta. Embora alguns vídeos tragam avisos de “trailer conceitual”, a falta de clareza em títulos e thumbnails confunde os espectadores, que muitas vezes acreditam estar vendo prévias oficiais. O termo “slop”, usado para descrever esse conteúdo de baixa qualidade produzido em massa, ganhou força nas redes sociais, refletindo a saturação de materiais artificiais.
Cronologia do caso no YouTube
A polêmica dos trailers falsos com IA tem marcos claros nos últimos meses. Veja os principais eventos:
- 2018: Epic Games inicia oferta de jogos grátis no PC, pavimentando o caminho para promoções digitais.
- 2023: Screen Culture e KH Studio intensificam uso de IA em trailers.
- 28 de março de 2025: Investigação expõe lucros de estúdios com vídeos falsos.
- 30 de março de 2025: YouTube desmonetiza os canais após denúncias.
- 1º de abril de 2025: Notícia da desmonetização ganha destaque global.
Impacto nos criadores de conteúdo
A suspensão da monetização afetou diretamente a receita de KH Studio e Screen Culture. O primeiro, com 560 milhões de visualizações, já produziu trailers como “Back to the Future 4” com Tom Holland, enquanto o segundo criou mais de 20 versões falsas de “Fantastic Four”. Ambos os canais dependiam dos anúncios para sustentar suas operações, e a decisão do YouTube ameaça sua viabilidade financeira.
Para Nikhil P. Chaudhari, do Screen Culture, os vídeos ajudam a promover filmes, funcionando como marketing gratuito para os estúdios. Ele alega que a maioria dos espectadores diferencia seus “conceitos” dos trailers oficiais, mas a confusão gerada pelos thumbnails hiper-realistas contraria essa visão. O KH Studio, por sua vez, foca em “o que poderia ser”, mas também foi penalizado por enganar usuários desavisados.
A resposta do YouTube às críticas
O YouTube não emitiu um comunicado oficial, mas a desmonetização sugere uma reação às denúncias de estúdios lucrando com conteúdo falso. As políticas da plataforma exigem que criadores transformem significativamente materiais emprestados e proíbem vídeos feitos apenas para atrair views. A ação contra KH Studio e Screen Culture pode ser o início de uma repressão mais ampla a conteúdos de IA que violem essas regras.
A plataforma já enfrentou desafios semelhantes com deepfakes e desinformação. Em 2024, o YouTube removeu vídeos que usavam IA para imitar celebridades em contextos falsos, e a nova medida reforça essa postura. A confusão causada por trailers falsos, que muitas vezes aparecem acima dos oficiais em buscas, também pressionou a empresa a agir.
O futuro da IA no entretenimento digital
A controvérsia expõe a dificuldade de regular o uso de IA em plataformas digitais. Enquanto alguns veem os trailers falsos como criatividade inofensiva, outros apontam os riscos à propriedade intelectual e à confiança do público. No Brasil, onde o YouTube tem mais de 120 milhões de usuários ativos, segundo dados de 2024, o impacto de conteúdos como esses é significativo, especialmente entre fãs de franquias populares.
A tecnologia de IA continua evoluindo, e casos como o de “Studio Ghibli” falsificado pelo ChatGPT mostram que o debate está longe de acabar. Os estúdios podem buscar acordos mais rígidos com plataformas, enquanto criadores de conteúdo terão que adaptar suas estratégias para sobreviver sem monetização.
- Fatos sobre os canais afetados:
- Screen Culture: 1,4 milhão de inscritos, 1,4 bilhão de views.
- KH Studio: 684 mil inscritos, 560 milhões de views.
- Vídeos mais vistos: “Superman” e “James Bond” falsos com milhões de cliques.
