A finales de junio, la música se convirtió en la última frontera en la batalla entre las empresas de inteligencia artificial y quienes participan en la creación de cualquier tipo de contenido original. Surgieron informes de que importantes sellos discográficos, incluidos Sony Music Entertainments, Warner Records y Capitol Records, han presentado demandas por infracción de derechos de autor contra los servicios de generación de música Suno y Udio. Las empresas afirman que el trabajo de los artistas se utilizó para entrenar los algoritmos de inteligencia artificial, violando las leyes de propiedad intelectual, y solicitan una indemnización de hasta 150.000 dólares por canción.
Estas acusaciones pueden ser nuevas para la industria musical, pero las empresas de inteligencia artificial ahora emplean ejércitos de abogados para manejar este tipo de demandas. La aparición de ChatGPT a fines de 2022 coincidió con el auge de las herramientas de imágenes generativas, lo que provocó una reacción legal negativa por parte de artistas, escritores, organizaciones de noticias y otros creativos, incluidos Getty Images, The New York Times y la comediante y escritora Sarah Silverman. Incluso los desarrolladores de código abierto han demandado a GitHub por no cumplir con los requisitos de la licencia de código abierto de GitHub al permitir que se copie y vuelva a publicar el código sin atribución.
Una regla para ellos
Dada la naturaleza incipiente de la tecnología y el hecho de que estos casos están creando precedentes judiciales que podrían perdurar durante mucho tiempo, es probable que los debates legales se prolonguen durante algún tiempo. Lo más probable es que gran parte del tiempo se dedique a debatir puntos tediosos sobre similitudes y diferencias precisas entre un dato generado por humanos y un resultado generado por IA.
Sin embargo, desde la perspectiva del consumidor, las empresas tecnológicas están dejando en el aire cuestiones éticas mucho más amplias. Estas empresas guardan celosamente (aunque comprensiblemente) sus algoritmos como secretos comerciales sensibles, pero parecen no tener límites cuando se trata de consumir y comercializar propiedad intelectual protegida.
A medida que las luchas legales adquieren más protagonismo y en ellas participan más marcas y nombres influyentes con seguidores fieles, la decisión de colaborar con empresas de IA se convierte en una decisión cada vez más ética. Todo usuario de modelos de IA en el que la empresa esté en disputa con los creativos por el uso de su propiedad intelectual significa que el usuario es cómplice de la infracción de los derechos del artista. Desde una perspectiva legal, el grado en que los usuarios podrían ser considerados responsables por utilizar un resultado generado por IA sigue siendo relativamente incierto. Si el ciudadano común utiliza la IA para crear imágenes o textos que replican tan fielmente una obra original que el original es claramente identificable, ¿es el ciudadano común responsable de identificar una posible infracción y de no utilizar esa obra con fines comerciales?
La regulación no es una panacea
Los reguladores apenas están empezando a encontrar respuestas a estas preguntas. Si bien se ha elogiado el pragmatismo de los nuevos marcos legales, como la Ley de IA de la UE, estos abordan la IA desde la perspectiva del riesgo y no abordan el problema de la propiedad intelectual. Por lo tanto, se necesitan soluciones. Y la mayoría de las demandas dependen de demandas relativamente sencillas por parte de los creadores de contenido: una compensación adecuada y el reconocimiento de su trabajo, a lo que tienen derecho según las leyes de propiedad intelectual vigentes.
La transparencia y la criptoeconomía de la tecnología blockchain ofrecen una forma elegante de abordar el problema. DroppLink, una solución desarrollada por droppGroup, permite a los operadores de modelos de IA establecidos tokenizarlos a través de su plataforma. De esta manera, se proporciona seguimiento, rastreo y procedencia de la actividad del modelo y se crea un incentivo para que los propietarios de propiedad intelectual ofrezcan su propiedad intelectual a las empresas de IA en términos comerciales, ya que serán compensados automáticamente a través del sistema de contratos inteligentes de droppLink.
La plataforma opera en tres niveles en el proceso de IA generativa. Una capa de Prueba de Generación valida la autenticidad de los datos de entrenamiento y el resultado de la IA en sí, aprovechando una red de validación descentralizada. Esta autenticación alimenta el proceso de compensación al creador por usar su trabajo como insumo. La capa de génesis de datos automatiza la tokenización de los datos de entrenamiento de la IA y crea un registro inmutable en cadena del origen y el uso de los datos. Finalmente, cada resultado se tokeniza como un activo digital único y los pagos a los creadores se ejecutan automáticamente.
Las empresas tecnológicas que buscan abordar de forma proactiva los problemas éticos relacionados con el scraping de contenido tienen la oportunidad de diferenciarse al incorporar sus actividades en la cadena de bloques mediante herramientas como droppLink. Ofrecer una compensación justa a los creadores, junto con transparencia sobre cómo se utilizan el contenido y los datos, también permite a las empresas reducir su responsabilidad legal y, al mismo tiempo, demostrar un compromiso con las prácticas éticas ante los reguladores y los legisladores. Proporciona una base legal y moral más sólida para el futuro desarrollo, promoción y adopción de la IA.
Todas las imágenes son generadas por Eray Eliaçık/Bing
Source: La IA generativa tiene un problema de propiedad intelectual: ¿es Blockchain la solución?





