Post Thumbnail

Juez multó a abogados con 31 mil por citas falsas de IA

El juez de California Michael Wilner emitió una dura decisión contra firmas de abogados que utilizaron inteligencia artificial sin el control adecuado para preparar documentos. Conteniendo falsos precedentes judiciales y citas inexistentes.

La situación se desarrolló en torno a una demanda civil contra la compañía de seguros State Farm. El representante del demandante utilizó inteligencia artificial para crear la estructura de una conclusión adicional. Este documento con datos no verificados fue transferido a la firma de abogados K&L Gates, que incluyó la información generada en la conclusión oficial para el tribunal.

El problema se descubrió cuando el juez Wilner, interesado en algunas citas de los materiales presentados, decidió estudiar las decisiones judiciales mencionadas con más detalle. Para su sorpresa, descubrió que al menos 2 de las fuentes mencionadas simplemente no existen.

El juez Wilner, discurso directo. “Leí su conclusión, estaba convencido o, al menos, intrigado por las fuentes autorizadas que citaron. Y decidí estudiar estas decisiones con más detalle – solo para descubrir que no existen. Esto es aterrador. Esto casi llevó a un resultado aún más aterrador – la inclusión de estos materiales falsos en una resolución judicial.”

Después de solicitar aclaraciones, la firma K&L Gates presentó una versión corregida de la conclusión. Que, según el juez, contenía “significativamente más citas y referencias fabricadas, además de los 2 errores originales.” Esto llevó a Wilner a emitir una Orden de Presentación de Pruebas, como resultado de lo cual los abogados bajo juramento confirmaron el uso de inteligencia artificial.

El abogado que creó el plan inicial admitió haber utilizado Google Gemini, así como herramientas de inteligencia artificial para investigación legal. En su decisión, el juez Wilner impuso una multa de 31 mil dólares a las firmas de abogados. Enfatizando que “ningún abogado razonablemente competente debería delegar la investigación y redacción de texto” a la inteligencia artificial sin la verificación adecuada.

¿Sabes qué es sorprendente? En ninguna de las firmas los abogados o el personal verificaron las citas o revisaron la investigación antes de presentar la conclusión al tribunal. Las firmas de abogados, teniendo años de procedimientos establecidos de verificación de documentos, no pudieron identificar ni siquiera falsificaciones básicas creadas por inteligencia artificial.

Autor: AIvengo

Latest News

Nvidia presentó la familia de modelos Cosmos para robótica

La empresa Nvidia presentó la familia Cosmos de modelos de IA. Que pueden cambiar fundamentalmente el enfoque para crear robots y agentes de IA físicos.

ChatGPT llama a los usuarios "semillas estelares" del planeta Lyra

Resulta que ChatGPT puede atraer a los usuarios al mundo de teorías científicamente infundadas y místicas.

La música IA desencadena emociones más fuertes que la música humana

¿Alguna vez se han preguntado por qué una melodía les da escalofríos mientras otra los deja indiferentes? Los científicos descubrieron algo interesante. La música creada por inteligencia artificial desencadena en las personas reacciones emocionales más intensas que las composiciones escritas por humanos.

GPT-5 fue hackeado en 24 horas

2 empresas de investigación independientes NeuralTrust y SPLX descubrieron vulnerabilidades críticas en el sistema de seguridad del nuevo modelo solo 24 horas después del lanzamiento de GPT-5. Para comparación, Grok-4 fue hackeado en 2 días, haciendo el caso de GPT-5 aún más alarmante.

Cloudflare bloqueó a Perplexity por 6 millones de solicitudes ocultas al día

Cloudflare asestó un golpe aplastante a Perplexity AI, bloqueando el acceso de la startup de búsqueda a miles de sitios. ¿La razón? ¡Escaneo oculto de recursos web de escala sin precedentes a pesar de prohibiciones explícitas de los propietarios!