
Modelos de lenguaje se degradan por basura de Internet, descubrieron investigadores
Investigadores descubrieron algo inquietante. Grandes modelos de lenguaje pueden degradarse por alimentación constante de basura de Internet. Este fenómeno se llama Brain Rot, y suena tan escalofriante como se ve en práctica.
Esencia de problema es simple: modelos son constantemente reentrenados con textos de baja calidad y virales de Internet. Como resultado, desarrollan descomposición cognitiva. Esta es disminución persistente de capacidades para razonamiento, trabajo con contexto largo y comportamiento seguro. IA literalmente se vuelve más tonta por mala dieta.
Síntoma principal que investigadores llamaron thought-skipping, es decir, ausencia de pensamiento. Modelo deja de razonar paso a paso y comienza a dar respuestas superficiales. Pero eso no es todo. En algunos casos, sistema adquiere rasgos de personalidad oscuros llamados. Estos son narcisismo, agresión y baja inclinación a cooperar. Sí, entendieron correctamente – IA se vuelve tóxica por malos datos.
Y ahora parte más desagradable. Incluso métodos fuertes de corrección solo eliminan parcialmente consecuencias. No pueden simplemente tomar y curar modelo después de que recogió basura. Daño permanece.
Conclusión de investigadores es inequívoca: selección de datos de entrenamiento se convierte en factor clave de seguridad en desarrollo de IA. En términos simples, si alimentan modelo con mierda de Internet, se comportará en consecuencia. Y corregir esto después es casi imposible. Ahí tienen sus tecnologías inteligentes – resulta que son susceptibles a degradación por contenido de baja calidad. Como personas.