# Informe 2025: Economía de Creadores y Desafíos de Propiedad Intelectual ## 1. Tendencias de la Economía de Creadores (2024–2025) **1.1 Ingresos y monetización de creadores:** El número de creadores de contenido sigue en auge, superando los **200 millones** a nivel mundial ([The 2023 Linktree Creator Report](https://linktr.ee/creator-report-23/#:~:text=of%20content%20creation%20and%20the,internet%20is%20total%20freaking%20chaos)) ([2024 Creator Economy Statistics: Who’s Winning, Who’s Hustling, and Who Needs Coffee? - billbooks](https://www.billbooks.com/blog/creator-economy-statistics/#:~:text=1)). Sin embargo, solo una fracción logra vivir de ello a tiempo completo. Estudios recientes indican que alrededor de **2 millones** de personas crean contenido de forma profesional a tiempo completo, mientras unos **46 millones** lo hacen de manera **parcial** o como ingreso secundario ([2024 Creator Economy Statistics: Who’s Winning, Who’s Hustling, and Who Needs Coffee? - billbooks](https://www.billbooks.com/blog/creator-economy-statistics/#:~:text=7,Hustlers%3A%20The%20Creator%20Economy%20Breakdown)). En Estados Unidos, aproximadamente el **37–43%** de los creadores que generan ingresos lo hacen como ocupación principal, frente a una mayoría que mantiene otros empleos y crea contenido “en sus ratos libres” ([7.1 Million Americans Participate, Earn Money in Creator Economy - MBO Partners](https://www.mbopartners.com/blog/press/creator-economy-research/#:~:text=,time)) ([Study: Are Digital Content Creators Corporate America’s New Superpower? - MBO Partners](https://www.mbopartners.com/blog/press/study-are-digitalcontent-creatorscorporate-americasnew-superpower/#:~:text=traditional%20workforce,in%20the%20next%2024%20months)). Esto refleja una marcada brecha: muchos creadores son “microemprendedores” que obtienen ingresos modestos, mientras unos pocos alcanzan cifras millonarias. La distribución de ingresos en la economía de creadores es profundamente desigual. Datos de 2023 muestran que el **1%** superior (unos 73 mil creadores en EE. UU.) ganan más de **$1 millón** al año, mientras la mayoría (44%) obtuvo **$10 mil o menos** en el último año ([Study: Are Digital Content Creators Corporate America’s New Superpower? - MBO Partners](https://www.mbopartners.com/blog/press/study-are-digitalcontent-creatorscorporate-americasnew-superpower/#:~:text=,report)). Solo **1 de cada 10** creadores genera más de **$100 mil** anuales ([Study: Are Digital Content Creators Corporate America’s New Superpower? - MBO Partners](https://www.mbopartners.com/blog/press/study-are-digitalcontent-creatorscorporate-americasnew-superpower/#:~:text=,being%20optimistic%20about%20the%20future)). A nivel global, se estima que apenas el **2%** de todos los creadores ganó más de **$50 mil** en el año, equivalentes a aproximadamente el **12%** de quienes se dedican a tiempo completo ([2024 Creator Economy Statistics: Who’s Winning, Who’s Hustling, and Who Needs Coffee? - billbooks](https://www.billbooks.com/blog/creator-economy-statistics/#:~:text=3.%2012,Making%20Over%20%2450%2C000%20a%20Year)) ([The 2023 Linktree Creator Report](https://linktr.ee/creator-report-23/#:~:text=72,than%20%24500)). En contraste, casi tres cuartas partes (72%) de los creadores obtuvieron menos de **$500** dólares en un año por su contenido ([The 2023 Linktree Creator Report](https://linktr.ee/creator-report-23/#:~:text=72,than%20%24500)). Esto evidencia que, aunque el ecosistema crece, son pocos los que “cosechan” la mayor parte de los ingresos. La principal fuente de monetización sigue siendo la publicidad y los programas de socios de las plataformas, complementada por patrocinios y venta de productos o membresías. **1.2 Monetización según plataformas:** La capacidad de generar ingresos varía mucho según la plataforma. En general, **YouTube** es considerada la plataforma más rentable para creadores, superando a TikTok e Instagram en términos de pagos directos ([Which social media platform pays the most? | Epidemic Sound](https://www.epidemicsound.com/blog/which-social-media-platform-pays-the-most/#:~:text=So%2C%20which%20is%20the%20highest,research%20of%201%2C500%20monetizing%20creators%E2%80%A6)). Parte de ello se debe a la diferencia en reparto publicitario: YouTube comparte ~55% de los ingresos publicitarios con el creador, ofreciendo entre **$1 y $20** por cada mil vistas (RPM), según la temática; mientras que **TikTok** paga montos simbólicos del orden de **$0.01 a $0.07** por mil vistas ([TikTok vs. YouTube: Which is Better for Brands? (2024) - Shopify](https://www.shopify.com/blog/tiktok-vs-youtube#:~:text=YouTube%20offers%20%241%20to%20%2420,income%20in%20the%20long%20run)). En otras palabras, **YouTube paga hasta 100-300 veces más por vista** que TikTok por vía publicitaria. Por ejemplo, creadores han reportado que TikTok suele pagar apenas **$0.02–$0.04** por mil visualizaciones bajo su fondo de creadores ([How Much Does TikTok Pay In 2025? [Earnings Calculator]](https://www.demandsage.com/how-much-do-you-get-paid-on-tiktok/#:~:text=How%20Much%20Does%20TikTok%20Pay,video%20via%20the%20%E2%80%9C)), lo que obliga a depender más de patrocinios o propinas. TikTok ha intentado mejorar esto con programas como TikTok Pulse y su nuevo fondo beta, pero la brecha persiste. No sorprende que en encuestas recientes, **28.6%** de los creadores señalaron a YouTube como su principal fuente de ingresos, frente al **18.3%** que mencionó a TikTok ([Which social media platform pays the most? | Epidemic Sound](https://www.epidemicsound.com/blog/which-social-media-platform-pays-the-most/#:~:text=So%2C%20which%20is%20the%20highest,research%20of%201%2C500%20monetizing%20creators%E2%80%A6)). Plataformas de streaming como Twitch ofrecen suscripciones y donaciones, pero típicamente con divisiones 50/50 que han sido criticadas por insuficientes en comparación con el valor aportado por los creadores ([Twitch’s revenue share changes put creators firmly in second place | The Verge](https://www.theverge.com/2022/9/26/23369070/twitch-revenue-split-70-30-streamers-reaction-amazon#:~:text=There%20are%20a%20number%20of,50)) ([Twitch’s revenue share changes put creators firmly in second place | The Verge](https://www.theverge.com/2022/9/26/23369070/twitch-revenue-split-70-30-streamers-reaction-amazon#:~:text=%E2%80%9CI%20would%20like%20to%20see,%E2%80%9D)). En suma, el “dónde” publica un creador influye fuertemente en “cuánto” puede ganar. **1.3 Auge del contenido generado por IA:** Entre 2024 y 2025, el ecosistema de contenidos enfrenta una explosión de material generado por Inteligencia Artificial (IA). Expertos estiman que para **2026 hasta el 90% del contenido online podría ser sintético o creado por IA** ([By 2026, Online Content Generated by Non-humans Will Vastly Outnumber Human Generated Content — OODAloop](https://oodaloop.com/analysis/archive/if-90-of-online-content-will-be-ai-generated-by-2026-we-forecast-a-deeply-human-anti-content-movement-in-response/#:~:text=fast%20approaching%20a%20%E2%80%9Ctipping%20point%E2%80%9D,%E2%80%9D)). Ya en 2024 se notó una **inundación de contenido automatizado** en redes y plataformas, desde textos y imágenes hasta videos deepfake. Este aumento exponencial se evidencia en la proliferación de “**AI slop**” (contenido de baja calidad generado masivamente por IA) que se cuela en todos los rincones de internet ([The biggest AI flops of 2024 — OODAloop](https://oodaloop.com/briefs/technology/the-biggest-ai-flops-of-2024/#:~:text=videos%2C%20and%20other%20types%20of,signal%20of%20support%20in%20the)). Modelos generativos permiten producir en segundos enormes volúmenes de publicaciones, sobrepasando la capacidad humana de creación. Por ejemplo, se han visto sitios web publicando cientos de artículos al día escritos por IA, o feeds repletos de imágenes artificiales. La consecuencia es una **saturación** de contenido nunca vista: los usuarios están bombardeados con información, gran parte de dudosa originalidad o calidad. El impacto proyectado de esta tendencia genera preocupación. Por un lado, la sobreabundancia de contenido automatizado dificulta la **visibilidad** del contenido humano original – los creadores pueden ver sus obras enterradas bajo un alud de publicaciones sintéticas que compiten por atención sin costo marginal. Por otro lado, surgen **dudas sobre la calidad y veracidad** de lo que consumimos en línea. En 2024, cerca del **60%** de los consumidores manifestaron dudar de la autenticidad de lo que ven en internet debido al auge de contenidos generados por IA ([In 2024, AI content overload has put consumer trust to the test](https://www.trendwatching.com/trends-and-insights/in-2024-ai-content-overload-has-put-consumer-trust-to-the-test#:~:text=In%202024%2C%20consumer%20trust%20was,consumers%20more%20wary%20than%20ever)). El público percibe que los “feeds” se han vuelto menos confiables y más impersonales. La **confianza** en lo digital se erosiona cuando “nada es lo que parece”: reseñas falsas creadas por bots (el 38% de los usuarios dice haberse topado con reseñas ficticias en 2024 ([In 2024, AI content overload has put consumer trust to the test](https://www.trendwatching.com/trends-and-insights/in-2024-ai-content-overload-has-put-consumer-trust-to-the-test#:~:text=content%2C%20leaving%20consumers%20more%20wary,than%20ever))), imágenes de eventos que nunca ocurrieron, o narrativas generadas por algoritmos. En resumen, el crecimiento del contenido por IA, si bien eficientiza la producción, trae efectos colaterales de saturación y escepticismo que los creadores humanos deben enfrentar para destacarse. **1.4 Saturación publicitaria y algoritmos opacos:** Otra realidad del ecosistema de 2024–2025 es la saturación de **publicidad digital** y el creciente desencanto con los algoritmos de distribución de contenido. Las grandes plataformas se han vuelto altamente monetizadas: los usuarios ven anuncios en cada esquina – videos pre-roll, contenido patrocinado integrado en feeds, “reels” con promociones, etc. Esto ha llevado a fatiga en la audiencia: en algunas encuestas, alrededor de **dos tercios** de los internautas afirman que hay “demasiados anuncios” tanto en internet en general como en las redes sociales ([Czechia: opinion on internet ad overload 2024 | Statista](https://www.statista.com/statistics/1282474/czechia-internet-advertising-over-saturation/#:~:text=Czechia%3A%20opinion%20on%20internet%20ad,of%20Czechs%20regarding%20social%20networks)). Además, muchos perciben que esos anuncios cada vez les resultan menos relevantes o confiables, generando **ceguera a la publicidad** (ad blindness). Para las plataformas, mantener el compromiso de los usuarios sin sobrecargarlos de publicidad es un delicado equilibrio, pero la competencia por ingresos las ha empujado a aumentar la frecuencia de anuncios, aun a costa de frustrar a la audiencia. En paralelo, los creadores y usuarios manifiestan **frustración con los algoritmos** que deciden qué contenido se muestra. En redes como Instagram o TikTok es común ver llamados de influencers pidiendo “¡Dale like para que el algoritmo no me oculte!”, reflejando la ansiedad por los constantes cambios algorítmicos ([How to own your brand and audience](https://kajabi.com/blog/how-to-own-your-brand-and-audience#:~:text=obvious%20external%20factor%20is%20algorithm,audience%20is%20on%20social%20platforms)). Estas plataformas ajustan sus algoritmos a diario, a veces penalizando sin aviso el alcance orgánico de ciertos contenidos y privilegiando nuevos formatos o iniciativas comerciales. Por ejemplo, a fines de 2023, TikTok priorizó su función de tienda (*TikTok Shop*) integrando compras en el feed – lo que algunos creadores criticaron por “convertir la app en un infomercial” y disminuir la visibilidad de contenido entretenido original ([‘It’s just not hitting like it used to’: TikTok was in its flop era before it got banned in the US | TikTok | The Guardian](https://www.theguardian.com/technology/article/2024/may/05/tiktok-ban-algorithm-decline#:~:text=Some%20users%20have%20pushed%20back,that%20earned%20TikTok%20its%20popularity)) ([‘It’s just not hitting like it used to’: TikTok was in its flop era before it got banned in the US | TikTok | The Guardian](https://www.theguardian.com/technology/article/2024/may/05/tiktok-ban-algorithm-decline#:~:text=TikTok%E2%80%99s%20push%20of%20the%20shopping,in%20the%20algorithm%2C%20said%20Duffy)). Los creadores sintieron presión de adaptarse (promocionar productos) para no ser relegados por el algoritmo. En general, existe la percepción de una **“opacidad algorítmica”**: las reglas que determinan el alcance son poco claras y fuera del control de los creadores. Esto deriva en casos de frustración notables – p. ej., numerosos tiktokers reportaron en 2024 fluctuaciones salvajes en sus vistas sin razón aparente, sintiendo que “el algoritmo ya no les favorece como antes” ([‘It’s just not hitting like it used to’: TikTok was in its flop era before it got banned in the US | TikTok | The Guardian](https://www.theguardian.com/technology/article/2024/may/05/tiktok-ban-algorithm-decline#:~:text=TikTok%20disappears,believe%20influencers%20are%20leaving%20the)). Algunos *influencers* llegaron a reducir su actividad o migrar de plataforma ante esta incertidumbre. En síntesis, muchos creadores se sienten **dependientes** y a merced de sistemas algorítmicos que priorizan los intereses comerciales de la plataforma (más anuncios, nuevas funciones) por encima de la estabilidad en la distribución del contenido de los propios creadores ([‘It’s just not hitting like it used to’: TikTok was in its flop era before it got banned in the US | TikTok | The Guardian](https://www.theguardian.com/technology/article/2024/may/05/tiktok-ban-algorithm-decline#:~:text=TikTok%E2%80%99s%20push%20of%20the%20shopping,in%20the%20algorithm%2C%20said%20Duffy)). **1.5 Desconfianza de los usuarios hacia las redes sociales:** En 2024 se acentuó un fenómeno que venía gestándose: el público cada vez confía menos en las redes sociales, debido a preocupaciones de **seguridad, privacidad, desinformación y autenticidad**. Un estudio global de UNESCO/Ipsos halló que más de **dos tercios** de las personas consideran a las redes sociales como la principal fuente de desinformación en la actualidad ([People get their information from social media but don’t trust it - Digital Content Next](https://digitalcontentnext.org/blog/2023/11/14/people-get-their-information-from-social-media-but-dont-trust-it/#:~:text=Unfortunately%2C%20the%20study%20confirms%20the,be%20a%20source%20of%20disinformation)). Los usuarios son muy conscientes de la cantidad de noticias falsas, teorías conspirativas y contenido manipulado que circula en estas plataformas. En EE. UU., un **40%** de quienes se informan por redes dicen que la inexactitud y las “fake news” son lo que menos les gusta de obtener noticias por esas vías – una preocupación que ha subido casi 10 puntos desde 2018 ([What Americans like and dislike about getting news on social media | Pew Research Center](https://www.pewresearch.org/short-reads/2024/02/07/many-americans-find-value-in-getting-news-on-social-media-but-concerns-about-inaccuracy-have-risen/#:~:text=Four,%E2%80%9Cfake%20news%E2%80%9D%20and%20unreliable%20sources)). Solo alrededor del **37%** de los adultos estadounidenses expresa algo de confianza en la información que proviene de redes sociales ([Republicans, young adults trust news on social media about as much as news from national outlets| Pew Research Center](https://www.pewresearch.org/short-reads/2024/10/16/republicans-young-adults-now-nearly-as-likely-to-trust-info-from-social-media-as-from-national-news-outlets/#:~:text=Today%2C%2037,than%20it%20was%20in%202016)), evidenciando un escepticismo mayoritario. El problema no es solo informativo: repetidos escándalos de privacidad (como el caso Cambridge Analytica y múltiples filtraciones de datos) han sembrado recelo sobre cómo las plataformas tratan los datos personales. La sensación de falta de **seguridad de la información** es común. Además, la invasión de contenido sintético y *deepfakes* (como se comentó en 1.3) hace que la gente dude de la **autenticidad** de fotos, videos o incluso perfiles en línea. En 2024, un **59.9%** de consumidores dijo desconfiar de la autenticidad de lo que ve en internet debido al aumento de contenido generado por IA ([In 2024, AI content overload has put consumer trust to the test](https://www.trendwatching.com/trends-and-insights/in-2024-ai-content-overload-has-put-consumer-trust-to-the-test#:~:text=In%202024%2C%20consumer%20trust%20was,consumers%20more%20wary%20than%20ever)). También la proliferación de bots y cuentas falsas erosiona la confianza en las interacciones en redes. Todos estos factores están provocando un cambio de actitud, en el que los usuarios utilizan las redes con más cautela y algunos disminuyen su uso de ciertas plataformas notorias por desinformación. Organismos independientes y centros de investigación (como Pew Research) han documentado esta **crisis de confianza**: por ejemplo, cuatro de cada diez usuarios identifican la *inexactitud generalizada* como el aspecto más negativo de las noticias en redes ([What Americans like and dislike about getting news on social media | Pew Research Center](https://www.pewresearch.org/short-reads/2024/02/07/many-americans-find-value-in-getting-news-on-social-media-but-concerns-about-inaccuracy-have-risen/#:~:text=Four,%E2%80%9Cfake%20news%E2%80%9D%20and%20unreliable%20sources)). En respuesta, tanto reguladores como las propias plataformas buscan medidas – desde etiquetado de contenidos dudosos, hasta funciones de verificación – pero la percepción de que las redes sociales pueden ser entornos tóxicos o poco fiables sigue creciendo en 2025. **1.6 Costos operativos de las plataformas y efecto en creadores:** Detrás de cada video viral o post compartido millones de veces, existe una infraestructura costosa que a menudo se pasa por alto. Plataformas como YouTube, Facebook o TikTok deben costear **almacenamiento masivo de datos** (petabytes de videos, imágenes y streams) y sistemas de **moderación de contenido** las 24 horas. Esto se ha vuelto un desafío financiero y logístico significativo que indirectamente afecta el reparto de ingresos con creadores. Por ejemplo, en YouTube se suben más de **500 horas de video por minuto** ([How Many Videos are on YouTube? 33+ Interesting Stats](https://www.nichepursuits.com/how-many-videos-are-on-youtube/#:~:text=Stats%20www,Multiple%20sources%20seem%20to)), contenido que la compañía debe alojar en sus servidores y distribuir globalmente. Mantener centros de datos capaces de servir miles de millones de horas de video al día implica gastos enormes en ancho de banda y energía. Twitch, enfocada en video en vivo, reveló que transmitir video HD en vivo “es caro”: se estima que un streamer medio (100 espectadores concurrencia, 200 horas al mes) le cuesta a la plataforma más de **$1,000 USD al mes en infraestructura** ([A Letter from Twitch President Dan Clancy on Subscription Revenue Shares](https://blog.twitch.tv/en/2022/09/21/a-letter-from-twitch-president-dan-clancy-on-subscription-revenue-shares/#:~:text=Lastly%2C%20we%20have%20to%20talk,Twitch%20video%20%E2%80%94%20live%20video)). En un inusual gesto de transparencia, Twitch mencionó estos costos al justificar por qué no podía ofrecer a todos los socios un reparto 70/30 – insinuando que Amazon (propietaria de Twitch) no subsidiaría indefinidamente esos gastos ([A Letter from Twitch President Dan Clancy on Subscription Revenue Shares](https://blog.twitch.tv/en/2022/09/21/a-letter-from-twitch-president-dan-clancy-on-subscription-revenue-shares/#:~:text=Lastly%2C%20we%20have%20to%20talk,Twitch%20video%20%E2%80%94%20live%20video)). Esto pone de relieve cómo los costos de operación pueden influir en las políticas de monetización. La **moderación de contenido** es otro frente costoso. Para mantener las plataformas seguras y dentro de la ley, las empresas han contratado ejércitos de revisores humanos y desarrollado IA de detección. Facebook (Meta) ha llegado a emplear más de **15,000 moderadores humanos** mundialmente ([Digital content moderation industry expected to reach $13.60B by 2027 - BRAND MINDS](https://brandminds.com/digital-content-moderation-industry-expected-to-reach-13-60b-by-2027/#:~:text=%2A%20More%20than%2095,and%202000%20posts%20a%20day)) y YouTube alrededor de **10,000** ([Digital content moderation industry expected to reach $13.60B by 2027 - BRAND MINDS](https://brandminds.com/digital-content-moderation-industry-expected-to-reach-13-60b-by-2027/#:~:text=,company%2C%20has%20about%201%2C500%20moderators)), complementados por algoritmos que filtran más del 95% de contenido infractor automáticamente ([Digital content moderation industry expected to reach $13.60B by 2027 - BRAND MINDS](https://brandminds.com/digital-content-moderation-industry-expected-to-reach-13-60b-by-2027/#:~:text=Digital%20content%20moderation%20market%20statistics,facts)). A diario, se reportan o detectan millones de piezas de contenido potencialmente prohibido – solo en Facebook, **más de 3 millones** de publicaciones al día son marcadas para posible remoción ([Digital content moderation industry expected to reach $13.60B by 2027 - BRAND MINDS](https://brandminds.com/digital-content-moderation-industry-expected-to-reach-13-60b-by-2027/#:~:text=,of%20terrorist%20propaganda%20%28source)). Gestionar estos volúmenes con rigor implica invertir **miles de millones de dólares** en salarios, herramientas de IA, y sistemas de apelación. Así, aunque los creadores generan el contenido que atrae a la audiencia, las plataformas deben destinar una parte sustancial de los ingresos a mantener la “maquinaria” funcionando y limpia. Esto puede tensionar el porcentaje de ingresos que se comparte con los creadores. En otras palabras, cuando los costos operativos aumentan (ya sea por alojar cada vez más contenido o por cumplir nuevas regulaciones de moderación), las empresas tienden a **proteger sus márgenes** compensando en otros rubros – muchas veces limitando incrementos en los pagos a creadores o introduciendo modelos de monetización menos generosos. Los creadores, por su parte, enfrentan el dilema de depender de plataformas que, a la vez, deben equilibrar sus libros: en última instancia, el **creador individual termina absorbiendo parte del costo** en forma de menor reparto, políticas más estrictas o mayores obstáculos para generar ingresos sostenibles. **1.7 Visibilidad y control de la distribución:** Un desafío persistente para los creadores es la **dependencia de terceros** (las plataformas) para llegar a su audiencia. El alcance orgánico – es decir, cuánta gente ve un contenido sin mediación de pago – se ha reducido considerablemente en redes maduras. Por ejemplo, el alcance orgánico promedio de una publicación de Facebook es de apenas **6.4%** de los seguidores de la página ([38 Statistics Facebook Advertisers Need to Know in 2024](https://www.invoca.com/blog/facebook-advertising-statistics#:~:text=18,Source%3A%20Hootsuite)). Dicho de otro modo, ni siquiera el 10% de tu propia audiencia garantizada ve tus posts, a menos que el algoritmo decida impulsarlos o inviertas en promoción. Instagram ha experimentado caídas similares en alcance, y en YouTube muchos canales ven enormes variaciones en vistas según las recomendaciones algorítmicas. Esto significa que los creadores **no tienen un canal propio asegurado** hacia sus fans: dependen de cómo la plataforma distribuya sus contenidos. Muchos sienten que “**trabajan para un algoritmo**” y no para su público directamente ([Unfiltered: How YouTube’s ‘Content ID’ Helps Shape What We See Online | Electronic Frontier Foundation](https://www.eff.org/press/releases/unfiltered-how-youtubes-content-id-helps-shape-what-we-see-online#:~:text=%E2%80%9CYouTube%20dominates%20the%20online%20video,%E2%80%9D)). Como mencionamos, constantes cambios en los feeds pueden derrumbar de la noche a la mañana el tráfico de un creador (casos de YouTubers que perdieron 70% de vistas tras un cambio de algoritmo son comunes en foros de creadores). Debido a esto, ha cobrado fuerza la noción de **“own your audience”** (posee tu audiencia). Plataformas como Kajabi y otros expertos instan a los creadores a construir canales propios – listas de correo, comunidades privadas, websites – para no quedar totalmente a merced de las redes sociales ([“Your outie fully owns their content and audience outside social ...](https://www.facebook.com/kajabi/posts/your-outie-fully-owns-their-content-and-audience-outside-social-media-%EF%B8%8Fcreatorso/1079488924222212/#:~:text=%E2%80%9CYour%20outie%20fully%20owns%20their,depend%20on%20someone%20else%27s%20algorithm)). Un eslogan difundido es “No trabajes para el algoritmo, trabaja para ti” ([Don't work for an algorithm. Work for you. | By Kajabi | Facebook](https://www.facebook.com/kajabi/videos/dont-work-for-an-algorithm-work-for-you/1322024382354032/#:~:text=Don%27t%20work%20for%20an%20algorithm,to%20own%20your%20audience)). ¿La razón? Si un creador solo se comunica con sus seguidores vía Instagram/TikTok, cualquier cambio en esas plataformas puede desconectarlo de su audiencia. Un ejemplo reciente fueron los temores ante una posible prohibición de TikTok en EE. UU.: muchos tiktokers con millones de seguidores se apresuraron a migrar fans a YouTube o Instagram ante el riesgo de “perderlo todo” de un día para otro ([‘It’s just not hitting like it used to’: TikTok was in its flop era before it got banned in the US | TikTok | The Guardian](https://www.theguardian.com/technology/article/2024/may/05/tiktok-ban-algorithm-decline#:~:text=%E2%80%9CThey%20are%20aware%20of%20the,%E2%80%9D)). Asimismo, cuando una plataforma prioriza cierto tipo de contenido (p. ej., Reels de 15 segundos en vez de fotos estáticas), los creadores sienten que deben adaptarse aunque no sea su formato preferido, o resignarse a menos visibilidad. Esta **falta de control sobre la distribución** crea tensión: algunos creadores sacrifican potencial alcance en pos de diversificar su presencia en múltiples canales (incluyendo propios), mientras otros siguen concentrados en plataformas grandes para maximizar audiencia, aceptando las reglas del juego. En cuanto a la **opacidad algorítmica**, los creadores a menudo desconocen por qué una publicación performa mejor que otra. Las plataformas entregan escasa información sobre las causas de bajadas de alcance o sobre cómo “corregir” problemas. Esto puede traducirse en pérdida de ingresos sin explicación (por ejemplo, YouTube puede desmonetizar videos o un canal completo por considerarlo no apto para anunciantes, a veces con comunicación confusa). Todo ello alimenta en la comunidad creadora un sentimiento de **incertidumbre y vulnerabilidad**. En 2024, Twitch reconoció públicamente que la frustración de sus streamers con ciertos sistemas era “completamente justificada” ([Music-Related Copyright Claims and Twitch](https://blog.twitch.tv/en/2020/11/11/music-related-copyright-claims-and-twitch/#:~:text=Music,copyright%20issues%20is%20completely%20justified)), reflejando la necesidad de mejorar la transparencia y la comunicación con quienes aportan el contenido. En respuesta, está aumentando la discusión sobre **reglamentar la transparencia algorítmica** – incluso la Unión Europea, en su Ley de Servicios Digitales, exige a grandes plataformas informes sobre cómo funcionan sus recomendaciones. Para los creadores, cualquier avance que les devuelva control (o al menos previsibilidad) sobre la distribución de su contenido será clave para la sostenibilidad de sus carreras en los próximos años. ## 2. Desafíos Actuales de la Propiedad Intelectual en Plataformas Digitales **2.1 Volumen de reclamos de *copyright* en plataformas:** El ecosistema de contenidos digitales vive una **avalancha de reclamos de derecho de autor**, en paralelo al crecimiento exponencial del contenido. YouTube, por su posición dominante en video, es un caso ilustrativo: en solo seis meses de 2023, procesó cerca de **980 millones** de reclamaciones automáticas por *copyright* a través de su sistema Content ID ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=YouTube%20has%20released%20a%20dedicated,generate%20billions%20in%20additional%20revenue)) ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=The%20980%20million%20number%20represents,Content%20ID%20claims%20were%20processed)). Esta cifra representa un aumento del **25%** respecto al año anterior, indicativo de que los titulares de derechos están identificando y reclamando cada vez más usos de sus obras en la plataforma. De hecho, YouTube reveló que está rozando el hito de **1.000 millones de reclamaciones cada semestre** ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=earlier%20trends)). Lo más notable es que más del **99%** de todas estas acciones de *copyright* en YouTube se gestionan mediante Content ID – un sistema automatizado reservado a ciertos dueños de contenido – y no vía notificaciones manuales ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=These%20reports%2C%20which%20were%20initially,vetted%20rightsholders%20to%20limit%20abuse)) ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=The%20latest%20data%20show%20that,actions%20on%20the%20video%20platform)). Para dimensionar: menos de 9 mil entidades (grandes discográficas, estudios, gestoras) con acceso a Content ID generan la abrumadora mayoría de los reclamos ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=The%20latest%20data%20show%20that,actions%20on%20the%20video%20platform)), mientras millones de autores individuales representan un porcentaje ínfimo. En plataformas de streaming en vivo como Twitch, los reclamos también se dispararon. Desde 2020, cuando la industria musical lanzó oleadas de notificaciones DMCA contra clips antiguos de transmisiones, los creadores de Twitch han tenido que borrar millones de videos para evitar sanciones. Twitch llegó a recibir “miles de notificaciones en pocos días” durante aquella oleada, sorprendiendo tanto a la empresa como a los *streamers* afectados ([After thousands of DMCA takedowns, Twitch has to make peace with ...](https://www.pcgamer.com/after-thousands-of-dmca-takedowns-twitch-has-to-make-peace-with-the-music-biz/#:~:text=After%20thousands%20of%20DMCA%20takedowns%2C,The%20music)) ([Twitch Manages To Get Out Some 'Disappointment' With Music ...](https://www.techdirt.com/2021/06/03/twitch-manages-to-get-out-some-disappointment-with-music-industry-over-latest-round-dmca-claims/#:~:text=Twitch%20Manages%20To%20Get%20Out,it%20received%2C%20mostly%20from)). Si bien Twitch es más pequeña en volumen que YouTube, la falta de un sistema como Content ID hizo que incluso unos cientos de reclamos mensuales generaran caos, dado que cada aviso requería acción manual del creador (borrar el contenido infringido) so pena de suspensión del canal tras tres strikes. Otras plataformas, como **TikTok**, han implementado sus propias herramientas (algunas preventivas, como filtros de audio para detectar canciones con derechos), pero no publican cifras detalladas de reclamos. Aun así, se sabe que titulares de música y medios monitorean estrechamente TikTok y envían reclamos cuando hallan usos no autorizados, empujando a la plataforma a firmar acuerdos masivos de licencia para evitar disputas. En general, **el volumen de reclamos de copyright está en máximos históricos**. Un reporte de 2024 indicó que YouTube alcanzó por primera vez más de **1 000 000 000** (mil millones) de acciones de *copyright* en un periodo de seis meses ([YouTube’s Transparency Report (July 2023 – December 2023) - Kluwer Copyright Blog](https://copyrightblog.kluweriplaw.com/2024/10/14/youtubes-transparency-report-july-2023-december-2023/#:~:text=It%20is%20only%20to%20be,over%203%20million%20YouTube%20channels)). Esto incluye desde bloqueos de videos, desmonetizaciones, hasta reclamos que solo desvían ingresos publicitarios. La mayoría – alrededor del **90%** – de los reclamos en YouTube prefieren monetizar el contenido en vez de bajarlo ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=Rather%20than%20simply%20making%20unauthorized,most%20popular%20option%20among%20rightsholders)), lo que sugiere que a los titulares muchas veces les interesa más obtener ingresos que censurar el uso. En otras palabras, si un creador sube un video con material de terceros, es muy probable que permanezca en línea pero con los anuncios y ganancias dirigidos al reclamante. Esto ha generado una situación donde enormes sumas fluyen a las arcas de grandes productoras vía Content ID: según informes, más de 9 000 millones de dólares se habían pagado acumulativamente a titulares por contenido reclamado en YouTube hasta 2022 ([YouTube Copyright Transparency Report](https://transparencyreport.google.com/youtube-copyright/everyone-has-access?hl=en_GB#:~:text=YouTube%20Copyright%20Transparency%20Report%20Claims,July%202023%20and%20December%202023)) ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=YouTube%20has%20released%20a%20dedicated,generate%20billions%20in%20additional%20revenue)). **2.2 Fallas y sesgos en el sistema de cumplimiento (*enforcement*):** Aunque las plataformas presumen de herramientas sofisticadas para gestionar el copyright, el sistema actual presenta varias **deficiencias** que generan controversia entre los creadores. Un primer punto es el **sesgo a favor de los grandes titulares de derechos**. Herramientas como Content ID de YouTube solo están disponibles para un grupo cerrado de empresas y entidades “de confianza” (principalmente discográficas, estudios de Hollywood, sociedades de gestión) ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=These%20reports%2C%20which%20were%20initially,vetted%20rightsholders%20to%20limit%20abuse)). Actualmente **solo unos pocos miles de titulares** tienen acceso a estas capacidades automáticas ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=The%20latest%20data%20show%20that,actions%20on%20the%20video%20platform)), dejando fuera a la gran mayoría de creadores independientes o pequeños que también pueden ver su contenido reutilizado sin permiso. Por ejemplo, un músico o youtuber independiente cuya obra es plagiada por otros no puede usar Content ID para detectar esas copias; debe conformarse con procesos manuales mucho más lentos (en YouTube, un formulario *Webform* convencional). De hecho, la propia transparencia de YouTube muestra que aunque el **60%** de los reclamantes son usuarios comunes usando el formulario web, sus acciones representan **menos del 1%** de las reclamaciones totales ([YouTube’s Transparency Report (July 2023 – December 2023) - Kluwer Copyright Blog](https://copyrightblog.kluweriplaw.com/2024/10/14/youtubes-transparency-report-july-2023-december-2023/#:~:text=Although%20over%2060,system%20are%20mainly%20YouTube%20users)). Esto revela un **doble estándar**: los pocos con Content ID controlan el sistema casi por completo, mientras los creadores ordinarios tienen un alcance limitado y enfrentan más burocracia para defender sus derechos. Ligado a lo anterior, los creadores acusan que la balanza se inclina contra ellos en casos de disputas. Las reclamaciones erróneas o abusivas son frecuentes. Content ID suele arrojar “**falsos positivos**”, marcando videos que en realidad no infringen – por ejemplo, detecta unos segundos de música incidental o un clip de dominio público y automáticamente reclama todo el video para alguna empresa. EFF señala que el sistema es “torpe detectando infracciones reales, pero muy eficaz atrapando videos que **no infringen en absoluto**” ([Unfiltered: How YouTube’s ‘Content ID’ Helps Shape What We See Online | Electronic Frontier Foundation](https://www.eff.org/press/releases/unfiltered-how-youtubes-content-id-helps-shape-what-we-see-online#:~:text=%E2%80%9CYouTube%20dominates%20the%20online%20video,%E2%80%9D)), como sucedió incluso a expertos en copyright de la NYU, cuyo video educativo sobre derecho de autor fue bloqueado por Content ID ([Unfiltered: How YouTube’s ‘Content ID’ Helps Shape What We See Online | Electronic Frontier Foundation](https://www.eff.org/press/releases/unfiltered-how-youtubes-content-id-helps-shape-what-we-see-online#:~:text=%E2%80%9CYouTube%20dominates%20the%20online%20video,%E2%80%9D)). Si bien YouTube ofrece la posibilidad de apelar, **pocos creadores se atreven a desafiar** los reclamos. En la segunda mitad de 2023, los usuarios de YouTube solo impugnaron menos del **10%** de las acciones de copyright realizadas (y menos del **0.5%** de las realizadas vía Content ID) ([YouTube’s Transparency Report (July 2023 – December 2023) - Kluwer Copyright Blog](https://copyrightblog.kluweriplaw.com/2024/10/14/youtubes-transparency-report-july-2023-december-2023/#:~:text=ImageFigure%201%3A%20Copyright%20Actions%20by,Tool)). Esto sugiere que la mayoría acepta los reclamos sin pelear, sea por desconocimiento, por asumir que no ganarán o por miedo a represalias (existe la preocupación de que disputar pueda escalar el asunto a un **takedown** legal formal bajo la DMCA, con riesgo de un “strike” contra su canal ([Unfiltered: How YouTube’s ‘Content ID’ Helps Shape What We See Online | Electronic Frontier Foundation](https://www.eff.org/press/releases/unfiltered-how-youtubes-content-id-helps-shape-what-we-see-online#:~:text=copyrighted%20content%2C%20arbitrary%20judgements%20on,of%20an%20entire%20YouTube%20channel))). El proceso de apelación es visto como **confuso y arriesgado**: un paso en falso puede llevar a que el reclamante eleve el caso a una notificación DMCA oficial, que de ser confirmada contaría como infracción a la cuenta del creador. Tres strikes de copyright pueden resultar en la eliminación definitiva de un canal, así que muchos prefieren ceder antes que arriesgar su sustento. Otro problema son las **demoras y trabas burocráticas** para quienes no tienen herramientas avanzadas. Un creador sin Content ID que detecta que alguien re-subió su video, debe llenar formularios manuales por cada copia y esperar días o semanas para que la plataforma actúe. Mientras tanto, el infractor puede cosechar visitas o incluso ganancias. Y si el infractor contranotifica argumentando uso legítimo, el caso queda en un limbo de 10 a 14 días (el plazo legal para ver si el reclamante inicia acción judicial) durante los cuales el contenido potencialmente infractor sigue publicado. Este proceso **lento** contrasta con las acciones casi inmediatas que gozan los socios de Content ID (cuyos algoritmos identifican y reclaman copias en minutos). Así, los creadores pequeños sienten **falta de protección efectiva**: sus obras pueden ser plagiadas múltiples veces y ellos carecen de medios ágiles para frenarlo. Finalmente, el **abuso del sistema** es una preocupación real. Si bien las plataformas afirman que la tasa de abuso es baja, ha habido numerosos casos documentados de uso malicioso de reclamaciones para acosar o extorsionar. En 2019, YouTube tuvo que emprender acciones legales contra un individuo que extorsionaba a creadores mediante falsas reclamaciones de copyright – amenazando con strikes a sus canales a menos que pagaran una “tarifa” para retirar el reclamo ([Syberbolt on X: "2 days and @TeamYouTube has been giving me ...](https://twitter.com/syberbolt/status/1735780475208376367#:~:text=Syberbolt%20on%20X%3A%20,This%20puts%20lives%20in%20danger)) ([YouTube Sues Copyright Troll for DMCA Extortion of YouTuber's](https://www.freezenet.ca/youtube-sues-copyright-troll-for-dmca-extortion-of-youtubers/#:~:text=YouTuber%27s%20www,notices%2C%20not%20only%20extorted)). También se han dado casos de empresas o individuos que utilizan el DMCA para silenciar críticas (por ejemplo, enviando takedowns a videos de reseñas negativas o parodias, a sabiendas de que probablemente el creador no tenga recursos para contra-demandar). Estos **usos abusivos** del DMCA han sido criticados por organizaciones como EFF, que llevan años señalando cómo “por décadas, el proceso de la DMCA se ha abusado regularmente para apuntar contra discursos lícitos” ([NO FAKES – A Dream for Lawyers, a Nightmare for Everyone Else](https://www.eff.org/deeplinks/2024/08/no-fakes-dream-lawyers-nightmare-everyone-else#:~:text=NO%20FAKES%20%E2%80%93%20A%20Dream,will%20lead%20to%20the)). Las plataformas, para evitar responsabilidades, tienden a obedecer casi cualquier notificación de takedown “por si acaso”, lo que deja a los creadores poco resguardo ante reclamos falsos. Aunque existen sanciones teóricas por enviar notificaciones fraudulentas, en la práctica pocas veces se penaliza a los reclamantes abusivos. En resumen, el sistema actual tiende a **favorecer al reclamante** (generalmente, un agente con poder o recursos legales) por encima del creador que sube el contenido, y ofrece pocas herramientas a este último para defenderse o prevenir errores. Esto ha derivado en un llamado de la comunidad creativa a reformar los mecanismos de *copyright* en línea para que sean más equilibrados y transparentes. **2.3 Impacto de la IA generativa en autoría y trazabilidad:** La irrupción de la IA generativa plantea **nuevos retos legales y conceptuales** en materia de propiedad intelectual. Uno de los más fundamentales es la cuestión de la **autoría**: ¿puede una obra creada por una inteligencia artificial ser objeto de *copyright*? Históricamente, las leyes de derecho de autor se construyeron alrededor de la figura de un autor humano. En 2023 y 2024, este paradigma se vio confrontado por casos reales. En Estados Unidos, la Oficina de Copyright (USCO) y los tribunales han dejado claro que **solo las obras con aporte humano pueden registrarse**. Un caso emblemático fue el de Stephen Thaler, quien intentó registrar una imagen generada enteramente por su IA (“Creativity Machine”) sin intervención humana. En agosto de 2023, un tribunal federal confirmó que las obras creadas de forma autónoma por IA **no son elegibles para protección por copyright** ([US Copyright Office denies protection for another AI-created image | Reuters](https://www.reuters.com/legal/litigation/us-copyright-office-denies-protection-another-ai-created-image-2023-09-06/#:~:text=The%20office%20said%20%2C%20opens,the%20product%20of%20human%20authorship)). La jueza citó el requisito tradicional de creatividad humana. Asimismo, la USCO denegó en septiembre de 2023 la solicitud de registro de la obra *“Théâtre D’opéra Spatial”* – una imagen generada con Midjourney que había ganado un concurso de arte – argumentando que **no era “producto de autoría humana”** y por tanto no calificaba para protección ([US Copyright Office denies protection for another AI-created image | Reuters](https://www.reuters.com/legal/litigation/us-copyright-office-denies-protection-another-ai-created-image-2023-09-06/#:~:text=with%20the%20generative%20AI%20system,Midjourney)). Estos casos ponen de relieve un **vacío legal**: las creaciones puramente algorítmicas quedan fuera del paraguas del copyright en jurisdicciones como EE. UU. Pero, ¿qué sucede si parte es humana y parte IA? Aquí la cuestión se complica. En febrero de 2023, la USCO tomó una decisión pionera sobre la novela gráfica *“Zarya of the Dawn”* de Kris Kashtanova, producida con imágenes generadas por IA Midjourney. La Oficina otorgó un registro **parcial**: protegió el texto escrito y la selección/organización de las viñetas (elementos creados por Kashtanova), pero **negó protección a las ilustraciones generadas por IA** dentro de la obra ([Copyright Protection for AI Works: UK vs US | Privacy World](https://www.privacyworld.blog/2023/07/copyright-protection-for-ai-works-uk-vs-us/#:~:text=Kristina%20Kashtanova%20is%20an%20artist,copyright%20protection%20in%20the%20USA)) ([Copyright Protection for AI Works: UK vs US | Privacy World](https://www.privacyworld.blog/2023/07/copyright-protection-for-ai-works-uk-vs-us/#:~:text=However%2C%20under%20US%20law%2C%20there,that%20AI%5D%C2%A0actually%20produces%E2%80%9D)). Argumentó que los prompts dados a la IA no alcanzaban el umbral de creatividad humana necesaria – “existe una distancia significativa entre lo que el usuario indica y el resultado visual que produce la IA” señaló la USCO ([Copyright Protection for AI Works: UK vs US | Privacy World](https://www.privacyworld.blog/2023/07/copyright-protection-for-ai-works-uk-vs-us/#:~:text=authorship%E2%80%9D%20for%20any%20copyright%20in,that%20AI%5D%C2%A0actually%20produces%E2%80%9D)). Este caso demuestra la complejidad de determinar autoría compartida entre humano e IA. Muchas obras actuales (diseños, textos, música) son “híbridas”, con intervención humana en la guía o edición, e IA en la ejecución; las oficinas de copyright deberán decidir cómo manejar estos supuestos. La **trazabilidad** del contenido generado por IA es otro desafío: al no haber un autor claro, también es difícil identificar la fuente o los componentes usados para generarlo. Por ejemplo, un modelo de IA entrena con millones de imágenes o textos de terceros; su salida puede llegar a parecerse a una obra existente (como un cuadro de un artista reconocido) sin que haya una “copia” directa, sino más bien una síntesis estadística. Esto dificulta aplicar conceptos clásicos de infracción. Casos recientes incluyen demandas contra desarrolladores de IA por presunto uso no autorizado de datos con copyright en el entrenamiento – por ejemplo, un grupo de autores bestseller (John Grisham, George R.R. Martin, entre otros) demandó a OpenAI en 2023 alegando que sus novelas fueron usadas para entrenar ChatGPT ([John Grisham, other top US authors sue OpenAI over copyrights](https://www.reuters.com/legal/john-grisham-other-top-us-authors-sue-openai-over-copyrights-2023-09-20/#:~:text=John%20Grisham%2C%20other%20top%20US,David%20Baldacci%20and%20Scott)) ([George R.R. Martin and other authors sue OpenAI for ... - The Verge](https://www.theverge.com/2023/9/20/23882140/george-r-r-martin-lawsuit-openai-copyright-infringement#:~:text=George%20R,latest%20lawsuit%20against%20the)). Igualmente, artistas visuales y fotógrafos (caso Getty Images vs. Stability AI) han alegado que sus obras aparecen difusas en los outputs de IA generativa, implicando una posible violación de derechos en el proceso de entrenamiento. La discusión legal se centra en si el entrenamiento de IA es *fair use/uso justo* o una excepción de minería de datos permitida (como la que existe en la UE), o si, por el contrario, constituye una reproducción no autorizada. La **regulación** se encuentra intentando seguir el ritmo de estos avances. En foros internacionales, como la OMPI (WIPO), ya se debate si las leyes deben adaptarse para reconocer algún tipo de derecho conexo a creaciones de IA o si, al revés, se debe afirmar claramente que lo producido sin mente humana queda en el dominio público ([AI-generated content and IP rights: Challenges and policy ...](https://www.diplomacy.edu/blog/ai-generated-content-and-ip-rights-challenges-and-policy-considerations/#:~:text=AI,generated%20works%20merit%20copyright%20protection)). Algunas jurisdicciones han tomado caminos distintos: **Reino Unido** es singular porque desde 1988 su ley prevé protección para “obras generadas por computadora sin autor humano”, otorgando derechos al responsable de su creación por 50 años ([Copyright Protection for AI Works: UK vs US | Privacy World](https://www.privacyworld.blog/2023/07/copyright-protection-for-ai-works-uk-vs-us/#:~:text=Under%20English%20law%2C%20specifically%20the,Assuming%20their%20comic%20is)). Bajo esta norma, teóricamente una obra 100% IA sí tendría copyright en UK (algo que contrasta con la postura estadounidense). Sin embargo, el Reino Unido está reevaluando esta política. En 2021 inicialmente decidió mantenerla, argumentando que no había evidencia de perjuicio por proteger dichas obras y queriendo fomentar la innovación IA ([Copyright Protection for AI Works: UK vs US | Privacy World](https://www.privacyworld.blog/2023/07/copyright-protection-for-ai-works-uk-vs-us/#:~:text=The%20UK%20has%20been%20described,government%E2%80%99s%20expressed%20intention%20to%20make)). Pero en 2023, comités del parlamento escucharon a expertos que opinan que esa disposición ya no es adecuada en la era de IA generativa capaz de producciones complejas ([Copyright Protection for AI Works: UK vs US | Privacy World](https://www.privacyworld.blog/2023/07/copyright-protection-for-ai-works-uk-vs-us/#:~:text=However%2C%20the%20use%20of%20AI,A%20witness)). No se descarta que el UK termine reformando o aclarando la ley para obras de IA en el corto plazo. En la **Unión Europea**, por otro lado, no existe una provisión equivalente a la británica; se mantiene el criterio tradicional de “obra original resultado de la creación intelectual de su autor”, lo que implica un ser humano. Así, una imagen generada enteramente por IA no cumpliría el requisito de originalidad *ex nihilo* (sin intervención humana creativa) y no tendría protección. La UE ha centrado sus esfuerzos más en regular la **transparencia y responsabilidad** de la IA (p. ej., con el borrador de Ley de IA que pide revelar contenido generado artificialmente, y con la Directiva de derechos de autor de 2019 que introdujo excepciones para minería de datos). Pero el debate de fondo sobre autoría AI sigue abierto en Europa y globalmente. En cuanto a **ejemplos concretos recientes** que ilustran estos vacíos: además del mencionado Kashtanova (cómic con Midjourney) y Allen (obra de arte digital premiada), podemos citar que la Oficina de Copyright de EE. UU. ha rechazado ya múltiples solicitudes que involucraban IA, incluso cuando el humano argumentaba haber aportado la selección de prompts o ediciones posteriores ([US Copyright Office denies protection for another AI-created image | Reuters](https://www.reuters.com/legal/litigation/us-copyright-office-denies-protection-another-ai-created-image-2023-09-06/#:~:text=Sign%20up%20here)) ([US Copyright Office denies protection for another AI-created image | Reuters](https://www.reuters.com/legal/litigation/us-copyright-office-denies-protection-another-ai-created-image-2023-09-06/#:~:text=,his%20AI%20system%20created%20autonomously)). Esto deja a algunos creadores “colgando” legalmente: si produjeron una obra con ayuda intensiva de IA, podrían no tener forma de protegerla de plagios, puesto que las cortes podrían declarar que no hay autoría protegible. Al mismo tiempo, otros creadores temen lo opuesto: que alguien registre contenido generado por IA que es sustancialmente similar a obras existentes. Por ejemplo, ¿qué impide a alguien generar miles de ilustraciones estilo Disney con una IA y luego intentar registrarlas? Las oficinas deberán estar vigilantes. En síntesis, la IA generativa está obligando a repensar conceptos jurídicos asentados hace siglos. Por ahora, la tendencia regulatoria es reafirmar la **exigencia de aporte humano** (como han hecho los tribunales estadounidenses ([US Copyright Office denies protection for another AI-created image | Reuters](https://www.reuters.com/legal/litigation/us-copyright-office-denies-protection-another-ai-created-image-2023-09-06/#:~:text=The%20office%20said%20%2C%20opens,the%20product%20of%20human%20authorship)) y la política europea implícitamente), pero con matices para obras mixtas. Los próximos años serán críticos para llenar estos vacíos y garantizar tanto la innovación con IA como la protección de la creatividad humana y los derechos de los autores originales. **2.4 Opinión de los creadores sobre las herramientas de protección de derechos:** ¿Cómo perciben los creadores de contenido el actual régimen de copyright en las plataformas? En general, existe una **insatisfacción considerable** y un sentimiento de que las herramientas están hechas “por y para” los grandes jugadores, no pensando en el creador individual. Muchos *YouTubers*, *streamers* y artistas han compartido historias de frustración con Content ID y las políticas de takedowns. Para creadores dedicados a la crítica, reseña o parodia – cuyos contenidos a menudo entran en la categoría de *fair use* (uso legítimo) – Content ID ha sido una barrera frecuente. Varios YouTubers conocidos (como *hbomberguy*, Lindsay Ellis, Todd in the Shadows, por citar algunos) han expresado que el sistema entorpece su trabajo: en lugar de enfocarse en hacer el **mejor video posible**, deben preocuparse de hacer el “video que pase los filtros de Content ID” sin activarlos ([Unfiltered: How YouTube’s ‘Content ID’ Helps Shape What We See Online | Electronic Frontier Foundation](https://www.eff.org/press/releases/unfiltered-how-youtubes-content-id-helps-shape-what-we-see-online#:~:text=%E2%80%9CYouTube%20dominates%20the%20online%20video,%E2%80%9D)). Esto puede implicar recortar clips, silenciar fragmentos o alterar imágenes, lo cual afecta la calidad y mensaje de sus obras. En un informe de la EFF, creadores populares calificaron todo el proceso de lidiar con Content ID como “**bizantino**” y agotador, con reglas arbitrarias (ej. ciertos segundos permitidos de música) y pérdidas automáticas de ingresos cuando aparecen reclamos múltiples sobre un mismo video ([Unfiltered: How YouTube’s ‘Content ID’ Helps Shape What We See Online | Electronic Frontier Foundation](https://www.eff.org/press/releases/unfiltered-how-youtubes-content-id-helps-shape-what-we-see-online#:~:text=%E2%80%9CUnfiltered%E2%80%9D%20describes%20the%20byzantine%20process,of%20an%20entire%20YouTube%20channel)). Este clima desincentiva a muchos creadores de siquiera usar breves referencias a obras ajenas por temor a problemas, limitando así la cultura del remix y el video ensayo. Del lado de los creadores que ven su propio contenido pirateado o reutilizado sin permiso, también hay frustración pero por la **falta de acceso a herramientas eficaces**. Un fotógrafo cuyos trabajos se difunden sin licencia en redes, o un educador cuyos videos fueron re-subidos por cuentas ajenas, a menudo sienten que las plataformas no les brindan una respuesta ágil. Si no son una gran compañía con Content ID, sus reportes pueden ser lentos. Algunos creadores han optado por servicios terceros de búsqueda de copias o han contratado agentes antipiratería, generando costos adicionales que un *youtuber* promedio difícilmente puede costear. La sensación prevalente es de **desamparo relativo**: los grandes estudios recuperan su dinero (monetizando los videos donde sale su música, por ejemplo), pero ¿quién resarce al *youtuber* cuando alguien más sube su video completo? En muchos casos, la persona afectada solo logra una eliminación tardía de la copia, cuando el daño (desvío de vistas o confusión del público) ya está hecho. No obstante, cabe mencionar que algunas plataformas han introducido mejoras aplaudidas por los creadores. YouTube, por ejemplo, expandió el **Copyright Match Tool** a millones de canales medianos, permitiéndoles detectar re-subidas de sus videos para decidir si las eliminan o dejan estar ([YouTube’s Transparency Report (July 2023 – December 2023) - Kluwer Copyright Blog](https://copyrightblog.kluweriplaw.com/2024/10/14/youtubes-transparency-report-july-2023-december-2023/#:~:text=half%20of%202021,as%20the%20latest%20viral%20video)). Esta herramienta, aunque limitada frente a Content ID, ha dado cierto poder a creadores serios para vigilar su contenido. Aún así, muchos querrían ver un **Content ID más inclusivo**, con criterios claros para que creadores independientes puedan acceder cuando demuestran reiteradas infracciones de sus obras. Por otro lado, en la comunidad artística hay crecientes voces criticando el **modelo punitivo y automatizado** de las plataformas. Argumentan que fomenta el miedo a crear, en lugar de proteger la creatividad. Por ejemplo, músicos independientes en Twitch se sintieron traicionados cuando en 2020 se les aplicaron retroactivamente miles de strikes por música de fondo en antiguos streams – Twitch admitió que la confusión y enojo de los creadores era “**totalmente justificada**” ([Music-Related Copyright Claims and Twitch](https://blog.twitch.tv/en/2020/11/11/music-related-copyright-claims-and-twitch/#:~:text=Music,copyright%20issues%20is%20completely%20justified)). Estas situaciones deterioran la confianza entre creadores y plataformas. Algunos creadores incluso han propuesto **soluciones alternativas**: licencias colectivas, bolsas de música y contenido libre de derechos, o un sistema de arbitraje justo para disputas de copyright en vez de la caída de martillo unilateral. De momento, las plataformas han priorizado evitarse problemas legales con los grandes titulares, pero saben que deben mejorar la relación con los creadores. Twitch, YouTube y otras han comenzado a dar comunicaciones más claras y a firmar acuerdos (por ejemplo, Twitch logró un acuerdo con discográficas para reducir los strikes automáticos, aunque con resultados cuestionables ([Twitch makes deal with NMPA, but streamers still can't play licensed ...](https://www.washingtonpost.com/video-games/2021/09/21/twitch-nmpa-streamers-licensed-music/#:~:text=Twitch%20makes%20deal%20with%20NMPA%2C,are%20allowed%20to%20play))). En síntesis, la opinión de muchos creadores es que las herramientas actuales de protección de derechos son **un arma de doble filo**: necesarias para combatir la piratería, pero implementadas de forma desequilibrada. Se percibe que favorecen a quienes ya tienen poder (empresas) y castigan o ignoran a los creadores individuales, tanto cuando son acusados (a veces injustamente) como cuando son víctimas de copias. Esta percepción alimenta el llamado a reformar el sistema de *copyright* en línea hacia uno más **colaborativo y equitativo**. Organizaciones de creadores y activistas sugieren, por ejemplo, dar a los creadores mayor margen de *fair use*, mejorar las contranotificaciones, sancionar a quienes abusan del sistema con reclamos falsos, y abrir herramientas de identificación de contenido a más usuarios para que todos puedan proteger sus obras. Solo con esos cambios sentirán que las plataformas realmente buscan **proteger la creatividad**, y no solo a los grandes catálogos. **2.5 Vacíos legales y desarrollos recientes en autoría no humana y copyright de IA:** Como se exploró en 2.3, la ley de copyright se encuentra ante un vacío o zona gris en cuanto a **autoría no humana**. Las diferencias entre jurisdicciones resaltan la falta de consenso global. En Estados Unidos, la doctrina emanada tanto de la Copyright Office como de los tribunales (casos *Naruto v. Slater* sobre la selfie del mono, y los recientes de obras de IA) es que **solo un ser humano puede ser autor** en el sentido legal ([US Copyright Office denies protection for another AI-created image | Reuters](https://www.reuters.com/legal/litigation/us-copyright-office-denies-protection-another-ai-created-image-2023-09-06/#:~:text=The%20office%20said%20%2C%20opens,the%20product%20of%20human%20authorship)). Esto excluye no solo a animales (un mono no pudo ser autor de su foto, quedó como dominio público) sino también a inteligencias artificiales. La consecuencia práctica es que si una obra es 100% generada por IA sin intervención creativa humana, **no goza de protección por copyright en EE. UU.** – cualquiera podría reutilizarla libremente. La USCO ha reiterado esta postura en guías publicadas en 2023, aclarando que los solicitantes deben revelar el uso de IA en una obra, y que las partes no humanas serán exceptuadas del registro ([US Copyright Office denies protection for another AI-created image | Reuters](https://www.reuters.com/legal/litigation/us-copyright-office-denies-protection-another-ai-created-image-2023-09-06/#:~:text=Sign%20up%20here)). En la **Unión Europea**, aunque no hay sentencias específicas aún sobre obras sin autor humano, se da por sentado que el requisito de originalidad (obra resultado de esfuerzo intelectual propio) implica la necesidad de un autor humano. Los informes del Parlamento Europeo han sugerido que las creaciones autónomas de IA queden en el **dominio público**, para evitar incertidumbres sobre a quién pertenecerían; asimismo, se ha instado a que dichas obras lleven alguna **marca o aviso** de que fueron generadas por IA para fines de transparencia. Sin embargo, la UE también enfrenta vacíos en cuanto a la infracción: por ejemplo, no está del todo claro cuánta similitud con una obra existente producida por una IA constituiría infracción (¿debe analizarse caso por caso, o regularse a nivel de entrenamiento de datos?). El **Reglamento de IA** que se debate podría introducir obligaciones para desarrolladores de IA generativa de respetar derechos de autor en sus conjuntos de entrenamiento, lo cual llenaría parcialmente el vacío en esa etapa del proceso creativo. El caso del **Reino Unido** es singular por su artículo que concede copyright a obras generadas por computadora. Como explicamos, el autor legal se considera la persona que hizo los arreglos para la creación (por ejemplo, quien da los prompts o configura el sistema). Esto por ahora llena el vacío en favor de reconocer derechos, pero podría cambiar. Si UK finalmente deroga o modifica esa sección, alineándose con la visión de autoría humana, entonces a nivel global tendríamos un principio común: **sin humano no hay derecho de autor**. Pero mientras tanto, hay cierta incertidumbre: una obra generada por IA podría tener copyright en Londres pero no en Washington, lo que complica su explotación internacional. En la práctica reciente, más que registrar obras de IA, lo que estamos viendo son litigios por el **uso de contenido protegido para generar IA**. Esto también evidencia vacíos legales. ¿Es legal entrenar una IA con millones de imágenes tomadas de internet con copyright? En EE. UU., empresas de IA argumentan que es *fair use* (uso justo) porque es un uso transformador y no sustitutivo de las obras originales; grupos de autores argumentan lo contrario, que se está realizando copias no autorizadas (aunque sea dentro del proceso de entrenamiento). No hay precedentes claros, y las demandas colectivas presentadas en 2023 (consolidando varios casos de autores contra OpenAI y Microsoft) recién están en curso ([US authors' copyright lawsuits against OpenAI and Microsoft ...](https://www.theguardian.com/books/2025/apr/04/us-authors-copyright-lawsuits-against-openai-and-microsoft-combined-in-new-york-with-newspaper-actions#:~:text=,and%20news%20outlets%20suing)). En la UE, la nueva Directiva de Copyright introdujo una excepción para minería de datos, pero con posibilidad de que los titulares la revoquen – otra área que deberá interpretarse. Otro vacío atañe a la **responsabilidad**: si una IA genera contenido difamatorio, o una canción demasiado similar a otra existente, ¿quién responde? Actualmente, el usuario que operó la IA podría verse señalado, o la empresa proveedora de la herramienta, pero no hay esquemas definidos. Esto enlaza con *deepfakes* y falsificaciones: por ejemplo, el año pasado circuló música “nueva” de artistas famosos generada por IA (como canciones falsas de Drake y The Weeknd que se viralizaron). Las discográficas alegaron infracción de propiedad intelectual y lograron bajarlas de plataformas, pero no existe una figura jurídica específica para cuando **la IA imita el estilo o la voz de alguien**. Algunos proponen leyes de derechos de imagen o voz (de hecho, en EE. UU. se discute el *NO FAKES Act* para proteger la voz/imagen de usos sintéticos sin permiso ([While the Court Fights Over AI and Copyright Continue, Congress ...](https://www.eff.org/deeplinks/2024/12/while-court-fights-over-ai-and-copyright-continue-congress-and-states-focus#:~:text=While%20the%20Court%20Fights%20Over,an%20incredibly%20broad%20amount))). En conclusión, los **vacíos legales actuales** se resumen en: quién es autor cuando hay IA de por medio (solución mayoritaria: un humano o nadie), cómo proteger a los creadores cuyos trabajos alimentan IA sin arruinar la innovación (en debate), y cómo gestionar la responsabilidad por contenidos generados por máquinas. Comparando regiones: EE. UU. y la UE se inclinan a no reconocer autoría IA y reforzar la necesidad de humano; Reino Unido hasta ahora reconocía derechos a obras de IA pero podría revertir; y en foros internacionales se busca armonizar criterios vía guías de OMPI ([AI-generated content and IP rights: Challenges and policy ...](https://www.diplomacy.edu/blog/ai-generated-content-and-ip-rights-challenges-and-policy-considerations/#:~:text=AI,generated%20works%20merit%20copyright%20protection)). Los casos recientes – Kashtanova, Thaler, Allen, demandas de artistas contra AI – están sentando precedentes cruciales. Es de esperar que en 2025 y adelante, las leyes de copyright se actualicen para cerrar estas brechas, dando certeza tanto a creadores tradicionales como a quienes usan IA como herramienta, sobre qué está protegido, qué no, y cómo equilibrar los incentivos para la creatividad humana frente a la generación automática. Por ahora, la recomendación para los creadores que usan IA es **transparentar su aporte humano** (ej. reclamar autoría solo sobre las partes editadas o seleccionadas por ellos) y estar atentos a los rápidos cambios regulatorios en este terreno. **Fuentes:** - MBO Partners – *Creator Economy Research 2023* ([Study: Are Digital Content Creators Corporate America’s New Superpower? - MBO Partners](https://www.mbopartners.com/blog/press/study-are-digitalcontent-creatorscorporate-americasnew-superpower/#:~:text=traditional%20workforce,in%20the%20next%2024%20months)) ([Study: Are Digital Content Creators Corporate America’s New Superpower? - MBO Partners](https://www.mbopartners.com/blog/press/study-are-digitalcontent-creatorscorporate-americasnew-superpower/#:~:text=,report)); *State of Independence Report* ([7.1 Million Americans Participate, Earn Money in Creator Economy - MBO Partners](https://www.mbopartners.com/blog/press/creator-economy-research/#:~:text=,time)) - Linktree – *Creator Report 2023* ([The 2023 Linktree Creator Report](https://linktr.ee/creator-report-23/#:~:text=72,than%20%24500)); Influencer Marketing Hub ([2024 Creator Economy Statistics: Who’s Winning, Who’s Hustling, and Who Needs Coffee? - billbooks](https://www.billbooks.com/blog/creator-economy-statistics/#:~:text=3.%2012,Making%20Over%20%2450%2C000%20a%20Year)) - Billbooks – *2024 Creator Economy Stats* ([2024 Creator Economy Statistics: Who’s Winning, Who’s Hustling, and Who Needs Coffee? - billbooks](https://www.billbooks.com/blog/creator-economy-statistics/#:~:text=1)) ([2024 Creator Economy Statistics: Who’s Winning, Who’s Hustling, and Who Needs Coffee? - billbooks](https://www.billbooks.com/blog/creator-economy-statistics/#:~:text=7,Hustlers%3A%20The%20Creator%20Economy%20Breakdown)) - Shopify – *TikTok vs YouTube (2024)* ([TikTok vs. YouTube: Which is Better for Brands? (2024) - Shopify](https://www.shopify.com/blog/tiktok-vs-youtube#:~:text=YouTube%20offers%20%241%20to%20%2420,income%20in%20the%20long%20run)) - Epidemic Sound – *Creator survey 2025* ([Which social media platform pays the most? | Epidemic Sound](https://www.epidemicsound.com/blog/which-social-media-platform-pays-the-most/#:~:text=So%2C%20which%20is%20the%20highest,research%20of%201%2C500%20monetizing%20creators%E2%80%A6)) - TrendWatching – *AI content overload (2024)* ([In 2024, AI content overload has put consumer trust to the test](https://www.trendwatching.com/trends-and-insights/in-2024-ai-content-overload-has-put-consumer-trust-to-the-test#:~:text=In%202024%2C%20consumer%20trust%20was,consumers%20more%20wary%20than%20ever)) ([In 2024, AI content overload has put consumer trust to the test](https://www.trendwatching.com/trends-and-insights/in-2024-ai-content-overload-has-put-consumer-trust-to-the-test#:~:text=content%2C%20leaving%20consumers%20more%20wary,than%20ever)) - OODAloop – *Content AI tipping point* ([By 2026, Online Content Generated by Non-humans Will Vastly Outnumber Human Generated Content — OODAloop](https://oodaloop.com/analysis/archive/if-90-of-online-content-will-be-ai-generated-by-2026-we-forecast-a-deeply-human-anti-content-movement-in-response/#:~:text=fast%20approaching%20a%20%E2%80%9Ctipping%20point%E2%80%9D,%E2%80%9D)); *“AI slop” 2024* ([The biggest AI flops of 2024 — OODAloop](https://oodaloop.com/briefs/technology/the-biggest-ai-flops-of-2024/#:~:text=videos%2C%20and%20other%20types%20of,signal%20of%20support%20in%20the)) - Pew Research Center – *News on Social Media 2024* ([What Americans like and dislike about getting news on social media | Pew Research Center](https://www.pewresearch.org/short-reads/2024/02/07/many-americans-find-value-in-getting-news-on-social-media-but-concerns-about-inaccuracy-have-risen/#:~:text=Four,%E2%80%9Cfake%20news%E2%80%9D%20and%20unreliable%20sources)); *Trust in Social Media 2024* ([Republicans, young adults trust news on social media about as much as news from national outlets| Pew Research Center](https://www.pewresearch.org/short-reads/2024/10/16/republicans-young-adults-now-nearly-as-likely-to-trust-info-from-social-media-as-from-national-news-outlets/#:~:text=Today%2C%2037,than%20it%20was%20in%202016)) - Digital Content Next/UNESCO – *Social media & disinformation* ([People get their information from social media but don’t trust it - Digital Content Next](https://digitalcontentnext.org/blog/2023/11/14/people-get-their-information-from-social-media-but-dont-trust-it/#:~:text=Unfortunately%2C%20the%20study%20confirms%20the,be%20a%20source%20of%20disinformation)) - Statista – *Ad overload perception (2024)* ([Czechia: opinion on internet ad overload 2024 | Statista](https://www.statista.com/statistics/1282474/czechia-internet-advertising-over-saturation/#:~:text=Czechia%3A%20opinion%20on%20internet%20ad,of%20Czechs%20regarding%20social%20networks)) - The Guardian – (TikTok algorithm) ([‘It’s just not hitting like it used to’: TikTok was in its flop era before it got banned in the US | TikTok | The Guardian](https://www.theguardian.com/technology/article/2024/may/05/tiktok-ban-algorithm-decline#:~:text=With%20that%20in%20mind%2C%20a,of%20brand%20loyalty%2C%E2%80%9D%20they%20said)) ([‘It’s just not hitting like it used to’: TikTok was in its flop era before it got banned in the US | TikTok | The Guardian](https://www.theguardian.com/technology/article/2024/may/05/tiktok-ban-algorithm-decline#:~:text=TikTok%E2%80%99s%20push%20of%20the%20shopping,in%20the%20algorithm%2C%20said%20Duffy)); (TikTok “flop era”) ([‘It’s just not hitting like it used to’: TikTok was in its flop era before it got banned in the US | TikTok | The Guardian](https://www.theguardian.com/technology/article/2024/may/05/tiktok-ban-algorithm-decline#:~:text=TikTok%20disappears,believe%20influencers%20are%20leaving%20the)) - Twitch Blog – *Music Copyright Update* ([Music-Related Copyright Claims and Twitch](https://blog.twitch.tv/en/2020/11/11/music-related-copyright-claims-and-twitch/#:~:text=Music,copyright%20issues%20is%20completely%20justified)) - YouTube Transparency Report (H1 2023) – via TorrentFreak ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=YouTube%20has%20released%20a%20dedicated,generate%20billions%20in%20additional%20revenue)) ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=The%20latest%20data%20show%20that,actions%20on%20the%20video%20platform)) - Kluwer Copyright Blog – *YouTube Copyright Report H2 2023* ([YouTube’s Transparency Report (July 2023 – December 2023) - Kluwer Copyright Blog](https://copyrightblog.kluweriplaw.com/2024/10/14/youtubes-transparency-report-july-2023-december-2023/#:~:text=Although%20over%2060,system%20are%20mainly%20YouTube%20users)) ([YouTube’s Transparency Report (July 2023 – December 2023) - Kluwer Copyright Blog](https://copyrightblog.kluweriplaw.com/2024/10/14/youtubes-transparency-report-july-2023-december-2023/#:~:text=ImageFigure%201%3A%20Copyright%20Actions%20by,Tool)) - Electronic Frontier Foundation – *EFF Whitepaper on Content ID* ([Unfiltered: How YouTube’s ‘Content ID’ Helps Shape What We See Online | Electronic Frontier Foundation](https://www.eff.org/press/releases/unfiltered-how-youtubes-content-id-helps-shape-what-we-see-online#:~:text=%E2%80%9CYouTube%20dominates%20the%20online%20video,%E2%80%9D)) ([Unfiltered: How YouTube’s ‘Content ID’ Helps Shape What We See Online | Electronic Frontier Foundation](https://www.eff.org/press/releases/unfiltered-how-youtubes-content-id-helps-shape-what-we-see-online#:~:text=%E2%80%9CUnfiltered%E2%80%9D%20describes%20the%20byzantine%20process,of%20an%20entire%20YouTube%20channel)) - TorrentFreak – *YouTube Content ID claims 2024* ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=YouTube%20has%20released%20a%20dedicated,generate%20billions%20in%20additional%20revenue)) ([YouTube Content ID Copyright Claims Increased 25% in a Year * TorrentFreak](https://torrentfreak.com/youtube-content-id-copyright-claims-increased-25-in-a-year-240229/#:~:text=The%20980%20million%20number%20represents,Content%20ID%20claims%20were%20processed)) - Reuters – (Copyright & AI cases 2023) ([US Copyright Office denies protection for another AI-created image | Reuters](https://www.reuters.com/legal/litigation/us-copyright-office-denies-protection-another-ai-created-image-2023-09-06/#:~:text=with%20the%20generative%20AI%20system,Midjourney)) ([US Copyright Office denies protection for another AI-created image | Reuters](https://www.reuters.com/legal/litigation/us-copyright-office-denies-protection-another-ai-created-image-2023-09-06/#:~:text=Sign%20up%20here)) - PrivacyWorld – *UK vs US copyright AI* ([Copyright Protection for AI Works: UK vs US | Privacy World](https://www.privacyworld.blog/2023/07/copyright-protection-for-ai-works-uk-vs-us/#:~:text=Under%20English%20law%2C%20specifically%20the,Assuming%20their%20comic%20is)) ([Copyright Protection for AI Works: UK vs US | Privacy World](https://www.privacyworld.blog/2023/07/copyright-protection-for-ai-works-uk-vs-us/#:~:text=However%2C%20under%20US%20law%2C%20there,that%20AI%5D%C2%A0actually%20produces%E2%80%9D)) - The Register – (Appeals court on AI authors) ([US appeals court says AI authors don't qualify for copyright](https://www.theregister.com/2025/03/18/appeals_court_says_ai_authors/#:~:text=US%20appeals%20court%20says%20AI,again%20told%20his%20%27Creativity)) - Reuters – (Authors sue OpenAI) ([John Grisham, other top US authors sue OpenAI over copyrights](https://www.reuters.com/legal/john-grisham-other-top-us-authors-sue-openai-over-copyrights-2023-09-20/#:~:text=John%20Grisham%2C%20other%20top%20US,David%20Baldacci%20and%20Scott)), (Getty vs Stability AI) ([From Rupert Murdoch to Thom Yorke: the growing backlash to AI](https://www.theguardian.com/technology/2024/oct/25/unjust-threat-murdoch-and-artists-align-in-fight-over-ai-content-scraping#:~:text=AI%20www,for%20free%20as%20training%20data)) - EFF – *NO FAKES Act critique* ([NO FAKES – A Dream for Lawyers, a Nightmare for Everyone Else](https://www.eff.org/deeplinks/2024/08/no-fakes-dream-lawyers-nightmare-everyone-else#:~:text=NO%20FAKES%20%E2%80%93%20A%20Dream,will%20lead%20to%20the)), *DMCA abuse*