Entrada

YouTube se prepara para una ofensiva contra los videos 'mas producidos' y 'repetitivos', a medida que crece la preocupación por el 'desperdicio' de inteligencia artificial.

En esta ilustración fotográfica se ve un logo de YouTube TV

Créditos de la imagen:

YouTube está preparando para actualizar sus políticas para combatir la capacidad de los creadores de generar ingresos a partir de contenido “inauthentic”, incluyendo videos masificados y otros tipos de contenido repetitivo - cosas que se han vuelto más fáciles de generar con la ayuda de la tecnología de IA.

El 15 de julio, la empresa actualizará sus políticas de Monetización del Programa de Socios de YouTube (YPP) con directrices más detalladas sobre qué tipo de contenido puede ganar dinero a los creadores y cuál no.

La exacta redacción de la política aún no se ha publicado, pero una página en la documentación de ayuda de YouTube explica que los creadores siempre han sido requeridos a subir contenido “original” y “auténtico”. La actualización dice que la nueva redacción ayudará a los creadores a entender mejor qué tipo de contenido “inauthentic” parece hoy.

Algunos creadores de YouTube estaban preocupados de que la actualización limitara su capacidad para monetizar ciertos tipos de videos, como videos de reacción o aquellos que presentan clips, pero un post del jefe de Relaciones con los creadores y el equipo editorial de YouTube, Rene Ritchie, dice que no es así.

En una actualización de video publicada el martes, Ritchie dice que el cambio es solo una “actualización menor” de las políticas de YPP de YouTube a lo largo de los años y está diseñado para identificar mejor cuando el contenido es masificado o repetitivo.

Además, Ritchie añade que este tipo de contenido ha sido inapropiado para la monetización durante años, ya que es contenido que los espectadores a menudo consideran spam.

Lo que Ritchie no dice, sin embargo, es cuánto más fácil es crear este tipo de videos hoy en día.

Con el auge de la tecnología de IA, YouTube se ha inundado de contenido de baja calidad o “slop” generado por IA, un término que se refiere a contenido de baja calidad hecho con tecnología de IA generativa. Por ejemplo, en instancias, es común encontrar una voz generada por IA superpuesta en fotos, clips de video u otro contenido reutilizado, gracias a las herramientas de texto a video de IA. Algunos canales llenos de música generada por IA tienen millones de suscriptores. Videos falsos generados por IA sobre eventos de noticias, como el juicio de Diddy, han acumulado millones de vistas.

En otro ejemplo, una serie de crímenes reales en YouTube que se volvió viral fue encontrada completamente generada por IA, 404 Media informó anteriormente este año. Incluso la apariencia del CEO de YouTube, Neal Mohan, fue utilizada en un engaño de phishing generado por IA en el sitio, a pesar de tener herramientas en su lugar que permiten a los usuarios reportar videos de deepfake.

Aunque YouTube puede minimizar los cambios venideros como una “actualización menor” o una aclaración, la realidad es que permitir que este tipo de contenido crezca y que sus creadores ganen dinero podría dañar finalmente la reputación y el valor de YouTube. No es de extrañar, entonces, que la empresa quiera tener políticas claras en su lugar que le permitan implementar prohibiciones masivas de creadores de “slop” de IA.

Esta entrada está licenciada bajo CC BY 4.0 por el autor.