Post Thumbnail

Nouveau générateur vidéo Midjourney transforme images en clips de 16 secondes

Le service Midjourney a lancé le générateur vidéo tant attendu Midjourney Video V1. C’est un outil fondamentalement nouveau avec des possibilités étonnantes pour l’expression créative personnelle.

La technologie fonctionne selon le principe de conversion d’image en vidéo. Les utilisateurs peuvent sélectionner une image générée ou télécharger la leur, appuyer sur le bouton Animate. Et le système améliore automatiquement le prompt pour créer une scène dynamique. Un mode manuel est aussi prévu, permettant de décrire en détail quels éléments exacts doivent être animés.

Les développeurs ont proposé 2 paramètres clés. “Low motion” pour les scènes lentes et atmosphériques et “high motion” pour les séquences dynamiques. La durée maximale de vidéo est de 16 secondes. Avec la possibilité d’extension séquentielle de 4 secondes.

L’esthétique du matériel de sortie correspond entièrement au style signature de Midjourney — avec une belle reproduction des couleurs et composition. Le système gère excellemment la dynamique des mouvements et même l’anatomie des figures humaines. Cependant, les détails laissent encore à désirer — artefacts visibles et résolution réduite de 480 pixels, ce qui est inférieur à certaines solutions open-source.

L’équipe Midjourney voit cette sortie comme partie d’une stratégie complète pour créer un système de simulation 3D à part entière avec contrôle interactif d’objets et d’espace.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.

Latest News

Anthropic a intégré Opus 4.1 dans Claude Code et les plateformes cloud

Anthropic a sorti Claude Opus 4.1. Ce n'est pas juste une autre mise à jour, mais une amélioration substantielle des capacités de codage et de fonctionnalité d'agent. Ce qui réjouit particulièrement — la nouvelle version est intégrée non seulement dans l'interface Claude classique, mais aussi dans l'outil Claude Code. Ainsi que disponible via API, Amazon Bedrock et Google Cloud Vertex AI.

OpenAI a sorti les premiers modèles open source en 6 ans

OpenAI a sorti les premiers modèles avec code source ouvert dans les 6 dernières années ! La sortie promise a eu lieu.

Samsung cherche un remplaçant à Google Gemini pour Galaxy S26

Samsung Electronics, l'un des principaux fabricants d'appareils mobiles, cherche activement des alternatives à Google Gemini pour sa future gamme Galaxy S26. L'entreprise mène des négociations avec OpenAI et Perplexity, s'efforçant d'élargir l'écosystème d'intelligence artificielle dans ses appareils.

Comment les modèles de langage transmettent la connaissance à travers des nombres aléatoires

Vous êtes-vous déjà demandé si les nombres peuvent stocker la connaissance ? Les scientifiques ont découvert un phénomène étonnant. Les modèles de langage peuvent transmettre leurs traits comportementaux à travers des séquences de chiffres qui ressemblent à du bruit aléatoire.

Alibaba a présenté les lunettes intelligentes Quark AI avec puce Snapdragon AR1

Le géant technologique chinois Alibaba a présenté son premier modèle de lunettes intelligentes Quark AI lors de la Conférence mondiale sur l'intelligence artificielle à Shanghai.