Post Thumbnail

Google lanzó Gemini 3 con ventana de contexto de 1 millón de tokens

Google lanzó Gemini 3. Y cambio principal está en cómo modelo procesa solicitudes. Gemini 3 analiza contexto e intenciones sin prompts largos.

Ventana de contexto se expandió a 1 millón de tokens. Allí caben horas de videoconferencias o docenas de trabajos científicos. ¿Quiere entender física de fusión nuclear? Escribirá código para visualización detallada de flujos de plasma en tokamak. ¿Necesita preservar recetas familiares? Transcribirá notas manuscritas en cualquier idioma y compilará libro de cocina completo.

Modelo demuestra conocimiento de nivel PhD en ciencias naturales y matemáticas, mejores resultados en codificación y tareas de agentes autónomos. Es verdaderamente multimodal. Entiende excelentemente no solo texto sino también imágenes o videos.

Para tareas particularmente complejas hay modo Deep Think. En ARC-AGI-2 modelo alcanzó 45%, lo que indica capacidad de resolver tareas desconocidas.

En Search apareció modo AI basado en Gemini 3. Para consultas motor de búsqueda genera visualizaciones interactivas y simulaciones en lugar de respuestas de texto ordinarias.

Gemini 3 Pro desplazó a Grok 4.1 de xAI Elon Musk del pedestal. Último no mantuvo liderazgo ni siquiera un día. Crecimiento particularmente fuerte en puntos de referencia para pensamiento abstracto y resolución de tareas complejas y “Último examen de humanidad”.

Curiosamente, desarrolladores notan que modelo no halaga y no intenta complacer a usuario. Resulta que Google no solo mejoró características técnicas sino también cambió filosofía misma de interacción. Modelo dice lo que considera correcto. Y no lo que persona quiere escuchar.

Autor: AIvengo
Latest News
Personas masivamente inician romances con IA, llegando a matrimonios virtuales

Personas comenzaron masivamente a iniciar romances con IA. Y esto no es solo chatear para entretenimiento. Llega a matrimonios virtuales, embarazos y crianza de niños inexistentes. Científicos de Alemania y EE.UU. realizaron estudio y descubrieron lo que muchos no querían notar.

Jefe de Hugging Face predijo colapso de burbuja de grandes modelos de lenguaje

Clem Delangue de Hugging Face trazó línea roja en discusión sobre burbuja tecnológica. Y esta línea no pasa donde todos esperan. Jefe de una de mayores plataformas de IA declaró que hay burbuja, pero no es burbuja de IA. Es burbuja de grandes modelos de lenguaje. Y podría colapsar ya próximo año.

OpenAI lanzó GPT-5.1-Codex-Max y superó a Gemini 3 Pro en un día

OpenAI presentó GPT-5.1-Codex-Max. Esta es versión de GPT-5.1 Thinking, especialmente adaptada para tareas de programación dentro de agente de codificación Codex. Este es primer modelo de compañía entrenado nativamente para trabajar a través de múltiples ventanas de contexto usando proceso llamado compactación. Modelo es capaz de trabajar coherentemente con millones de tokens dentro de una tarea.

Cinco fundadores de IT ganaron más de 200 mil millones de dólares con auge de IA

Cinco fundadores de compañías de IT pueden presumir de riqueza de más de 200 mil millones de dólares cada uno en contexto de auge de IA. Hace poco, como señala The Economic Times, tener 100 mil millones de dólares permitía acceso a club de élite mundial, pero ahora barra se ha duplicado.

Científicos japoneses crearon sistema de lectura de recuerdos vía resonancia magnética

Grupo de científicos japoneses de laboratorio NTT mostró sistema que genera descripciones de texto de lo que persona recuerda, imagina o ve basándose en datos de resonancia magnética funcional. Esencialmente, esto es lectura de recuerdos. Y otro gran paso hacia lectura de pensamientos.