Post Thumbnail

Científicos japoneses crearon sistema de lectura de recuerdos vía resonancia magnética

Grupo de científicos japoneses de laboratorio NTT mostró sistema que genera descripciones de texto de lo que persona recuerda, imagina o ve basándose en datos de resonancia magnética funcional. Esencialmente, esto es lectura de recuerdos. Y otro gran paso hacia lectura de pensamientos.

A diferencia de experimentos anteriores donde solo era posible reconocer categorías generales como “persona” o “paisaje”, ahora se forman textos más detallados como “hombre caminando en playa”. Autores llaman esto “subtítulos para pensamientos”.

Durante entrenamiento de sistema, se mostraron a participantes muchos clips cortos y simultáneamente se registró actividad cerebral con resonancia magnética funcional. Se entrenó modelo de lenguaje en descripciones de texto de videos, obteniendo características semánticas. Luego se entrenaron decodificadores para cada característica que predicen estas características a partir de patrones de actividad cerebral.

Después de entrenamiento, se pidió a sujeto simplemente recordar escena vista anteriormente. Y sistema seleccionó formulación máximamente consistente con lo que se “leyó” vía resonancia magnética funcional.

Pruebas mostraron patrón interesante. Subtítulos más precisos se obtienen cuando participante mira mismo video o intenta recordarlo. Si participante ve o imagina algo nuevo, precisión cae: modelo va más a menudo a formulaciones generales y comete errores en detalles.

Científicos ven potencial en esto para construir futuras interfaces “cerebro-texto” no invasivas. Sin embargo, en esta etapa modelo necesita ajustarse durante mucho tiempo a persona específica.

Autor: AIvengo
Latest News
Personas masivamente inician romances con IA, llegando a matrimonios virtuales

Personas comenzaron masivamente a iniciar romances con IA. Y esto no es solo chatear para entretenimiento. Llega a matrimonios virtuales, embarazos y crianza de niños inexistentes. Científicos de Alemania y EE.UU. realizaron estudio y descubrieron lo que muchos no querían notar.

Jefe de Hugging Face predijo colapso de burbuja de grandes modelos de lenguaje

Clem Delangue de Hugging Face trazó línea roja en discusión sobre burbuja tecnológica. Y esta línea no pasa donde todos esperan. Jefe de una de mayores plataformas de IA declaró que hay burbuja, pero no es burbuja de IA. Es burbuja de grandes modelos de lenguaje. Y podría colapsar ya próximo año.

OpenAI lanzó GPT-5.1-Codex-Max y superó a Gemini 3 Pro en un día

OpenAI presentó GPT-5.1-Codex-Max. Esta es versión de GPT-5.1 Thinking, especialmente adaptada para tareas de programación dentro de agente de codificación Codex. Este es primer modelo de compañía entrenado nativamente para trabajar a través de múltiples ventanas de contexto usando proceso llamado compactación. Modelo es capaz de trabajar coherentemente con millones de tokens dentro de una tarea.

Cinco fundadores de IT ganaron más de 200 mil millones de dólares con auge de IA

Cinco fundadores de compañías de IT pueden presumir de riqueza de más de 200 mil millones de dólares cada uno en contexto de auge de IA. Hace poco, como señala The Economic Times, tener 100 mil millones de dólares permitía acceso a club de élite mundial, pero ahora barra se ha duplicado.

Científicos japoneses crearon sistema de lectura de recuerdos vía resonancia magnética

Grupo de científicos japoneses de laboratorio NTT mostró sistema que genera descripciones de texto de lo que persona recuerda, imagina o ve basándose en datos de resonancia magnética funcional. Esencialmente, esto es lectura de recuerdos. Y otro gran paso hacia lectura de pensamientos.