X

Noticias IA

Adobe enfrenta una demanda colectiva propuesta, acusada de hacer un uso indebido de la obra de los autores en el entrenamiento de IA.

Adobe ha intensificado su enfoque en la inteligencia artificial (IA) en los últimos años, lanzando una serie de servicios relacionados desde 2023, incluido Firefly, su suite de generación de medios impulsada por IA. Sin embargo, su compromiso con esta tecnología ha llevado a la empresa a enfrentar un nuevo desafío: una demanda colectiva que afirma que utilizó libros piratas para entrenar uno de sus modelos de IA, específicamente el programa SlimLM.

El caso judicial de Elizabeth Lyon

Demandante y alegaciones

Elizabeth Lyon, una autora de Oregón, ha presentado una demanda colectiva contra Adobe, alegando que la empresa utilizó versiones piratas de numerosos libros, que incluyen sus propias obras, para el entrenamiento de su modelo SlimLM. Esta situación subraya el problema de los derechos de autor en un mundo donde la IA se alimenta de vastas cantidades de datos.

Descripción del modelo SlimLM

Adobe ha definido a SlimLM como una serie de modelos de lenguaje pequeños que se pueden optimizar para tareas de asistencia documental en dispositivos móviles. Según la empresa, SlimLM fue preentrenado utilizando un conjunto de datos llamado SlimPajama-627B, que fue desarrollado a partir de una colección de textos. Lyon sostiene que sus obras literarias fueron incorporadas en ese conjunto de datos sin su consentimiento.

El impacto del conjunto de datos SlimPajama

Creación y manipulación de datos

Lyon argumenta que el conjunto de datos SlimPajama fue creado mediante la copia y manipulación de otro conjunto denominado RedPajama, que incluye un subgrupo conocido como Books3, el cual consiste en una colección de aproximadamente 191,000 libros. Esto plantea preocupaciones sobre la legalidad de las prácticas de la industria tecnológica en relación con el uso de material protegido.

Contexto legal en la industria tecnológica

Demandas similares

Las demandas por el uso de materiales piratas en el entrenamiento de modelos de IA se están convirtiendo en moneda común dentro del sector tecnológico. Recientemente, otras empresas como Apple y Salesforce también han enfrentado acusaciones similares, lo que evidencia una tendencia alarmante en el uso indebido de obras protegidas sin consentimiento ni compensación.

Consecuencias financieras para la industria

A modo de ejemplo, la empresa Anthropic acordó pagar 1.5 mil millones de dólares a varios autores que habían alegado el uso de versiones piratas de su trabajo para entrenar su chatbot, Claude. Este caso ha sido considerado un posible punto de inflexión en la prolongada batalla legal sobre el uso de material protegido en la formación de datos de IA.

Consejos para emprendedores y empresas

1. Derechos de autor y licencias

Asegúrate de comprender las implicaciones legales del uso de datos en tu modelo de IA. Considera obtener las licencias adecuadas para evitar problemas legales similares a los de Adobe.

2. Transparencia en la recopilación de datos

Implementa una política de transparencia en cómo y de dónde obtienes tus datos para entrenar tus modelos de IA. Esto no solo te protegerá legalmente, sino que también generará confianza entre tus usuarios.

3. Participación de creadores

Trabaja con autores y creadores de contenido para obtener acceso a sus obras de forma legal. Establecer relaciones con ellos puede ser beneficioso tanto ética como económica.

4. Inversión en desarrollo ético

Invierte en el desarrollo de prácticas éticas para la recopilación y uso de datos en tus productos de IA. Esto no solo es bueno para tu reputación, sino que también puede ser un diferenciador en el mercado.

Conclusiones

El compromiso de Adobe con la inteligencia artificial ha sido notable, pero la aparición de esta demanda resalta la necesidad de que las empresas tecnológicas se ocupen adecuadamente de los problemas de derechos de autor en su proceso de desarrollo. La historia reciente sugiere que, sin adoptar medidas proactivas en la gestión de material protegido, las empresas no solo pueden enfrentarse a sanciones legales, sino también dañar su reputación y la confianza del consumidor. Para los emprendedores, es crucial aprender de estos casos y establecer una base sólida y ética para el uso de IA en sus operaciones.

Compartir noticia

Publicado

en

por

Newsletter Negocios con IA

¿Quieres Mejorar tu Negocio?