Post Thumbnail

Anthropic ganó el caso: juez permitió entrenar IA en libros sin consentimiento de autores

La empresa Anthropic ganó el caso contra autores de libros y el juez estadounidense William Alsup emitió una decisión verdaderamente revolucionaria. Reconociendo como legal el uso de libros publicados para entrenar modelos de inteligencia artificial. Sin permiso de los autores. Este es el primer caso donde una corte apoyó la posición de las empresas tecnológicas sobre la aplicabilidad de la doctrina de uso justo al entrenamiento de redes neuronales en materiales protegidos por derechos de autor.

La decisión se convirtió en un golpe serio para autores, artistas y editores que presentaron docenas de demandas contra OpenAI, Meta, Midjourney, Google y otras empresas. Aunque el veredicto no garantiza que otros jueces sigan el ejemplo de Alsup, crea una base legal para futuras decisiones a favor de empresas tecnológicas.

Es notable que la corte aún programó una audiencia separada sobre el tema de la llamada “biblioteca central” de Anthropic. La empresa descargó 7 millones de libros protegidos por derechos de autor de sitios piratas para crear su base de datos, lo cual es claramente ilegal. El juez señaló, cito: “Que Anthropic luego comprara una copia de un libro previamente robado no libera a la empresa de responsabilidad por el robo. Pero puede afectar el tamaño de la multa”.

Es interesante que la base para los procedimientos judiciales se convierte en la interpretación de la doctrina de uso justo. Una sección especial de la ley de derechos de autor que no ha sido actualizada desde 1976. Mucho antes de la aparición del internet y el concepto de inteligencia artificial generativa.

Autor: AIvengo

Latest News

Cómo Robomart reduce costos de entrega 70% a través de robótica

$3 por cualquier entrega. Robomart desafía a gigantes DoorDash y Uber Eats con modelo de negocio nuevo para la industria. Su nuevo robot RM5 cambia completamente la economía de entregas.

Colaboración inusual entre competidores en pruebas de seguridad de IA

Dos principales competidores en el mundo de la inteligencia artificial se unieron por primera vez para pruebas conjuntas de seguridad. OpenAI y Anthropic se abrieron acceso mutuo a sus modelos secretos. En una industria donde las empresas pagan a investigadores hasta $100 millones y luchan por cada usuario, tal colaboración parece increíble.

Por qué Gemini alcanzó 50% de la audiencia móvil de ChatGPT

Google Gemini ya tiene la mitad de la audiencia de ChatGPT en dispositivos móviles. Estos son datos del nuevo reporte del fondo de capital de riesgo Andreessen Horowitz sobre el mercado de IA de consumo. 2.5 años de investigación muestran un panorama interesante.

Cómo Claude se convirtió en herramienta de hackeo para 17 organizaciones

La empresa Anthropic publicó un reporte analítico de seguridad. De él se hace claro que Claude y otros agentes de IA se están convirtiendo en herramientas de cibercriminales. En Anthropic llamaron a esta nueva dirección vibe-hacking. Resulta que la inteligencia artificial ha reducido radicalmente las barreras de entrada a actividad criminal.

Cómo xAI compite con OpenAI en herramientas para desarrolladores

xAI lanza Grok Code Fast 1. Este es un modelo agéntico compacto para programación. $0.20 por 1 millón de tokens de entrada, $1.50 por salida — ¡y solo $0.02 usando caché!