Post Thumbnail

Neuer Midjourney-Videogenerator verwandelt Bilder in 16-Sekunden-Clips

Der Service Midjourney startete den lang erwarteten Videogenerator Midjourney Video V1. Das ist ein grundlegend neues Werkzeug mit erstaunlichen Möglichkeiten für kreativen Selbstausdruck.

Die Technologie funktioniert nach dem Prinzip der Bildumwandlung in Video. Benutzer können ein generiertes Bild auswählen oder ihr eigenes hochladen, die Animate-Schaltfläche drücken. Und das System verbessert automatisch den Prompt zur Erstellung einer dynamischen Szene. Ein manueller Modus ist ebenfalls vorgesehen, der es ermöglicht, detailliert zu beschreiben, welche Elemente genau animiert werden sollen.

Die Entwickler boten 2 Schlüsseleinstellungen an. “Low motion” für langsame, atmosphärische Szenen und “high motion” für dynamische Sequenzen. Die maximale Videolänge beträgt 16 Sekunden. Mit der Möglichkeit der sequenziellen Erweiterung um 4 Sekunden.

Die Ästhetik des Ausgabematerials entspricht vollständig dem Markenzeichen von Midjourney — mit wunderschöner Farbwiedergabe und Komposition. Das System bewältigt die Dynamik von Bewegungen hervorragend und sogar die Anatomie menschlicher Figuren. Jedoch lässt die Detailliertheit noch zu wünschen übrig — sichtbare Artefakte und reduzierte Auflösung von 480 Pixeln, was sogar einigen Open-Source-Lösungen unterlegen ist.

Das Midjourney-Team sieht diesen Release als Teil einer umfassenden Strategie zur Schaffung eines vollwertigen 3D-Simulationssystems mit interaktiver Objekt- und Raumsteuerung.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

Anthropic integrierte Opus 4.1 in Claude Code und Cloud-Plattformen

Anthropic veröffentlichte Claude Opus 4.1. Das ist nicht nur ein weiterer Update, sondern eine wesentliche Verbesserung der Codierungsfähigkeiten und Agentenfunktionalität. Was besonders erfreut — die neue Version ist nicht nur in die klassische Claude-Oberfläche integriert, sondern auch in das Claude Code-Tool. Sowie über API, Amazon Bedrock und Google Cloud Vertex AI verfügbar.

OpenAI veröffentlichte erste Open-Source-Modelle in 6 Jahren

OpenAI veröffentlichte die ersten Modelle mit offenem Quellcode in den letzten 6 Jahren! Der versprochene Release fand statt.

Samsung sucht Ersatz für Google Gemini für Galaxy S26

Samsung Electronics, einer der führenden Hersteller mobiler Geräte, sucht aktiv nach Alternativen zu Google Gemini für seine zukünftige Galaxy S26-Reihe. Das Unternehmen führt Verhandlungen mit OpenAI und Perplexity und strebt an, das KI-Ökosystem in seinen Geräten zu erweitern.

Wie Sprachmodelle Wissen durch Zufallszahlen übertragen

Haben Sie sich jemals gefragt, ob Zahlen Wissen speichern können? Wissenschaftler entdeckten ein erstaunliches Phänomen. Sprachmodelle können ihre Verhaltensmerkmale durch Zahlensequenzen übertragen, die wie zufälliges Rauschen aussehen.

Alibaba stellte smarte Brille Quark AI mit Snapdragon AR1-Chip vor

Der chinesische Technologie-Gigant Alibaba stellte auf der Weltkonferenz für Künstliche Intelligenz in Shanghai sein erstes Modell der smarten Brille Quark AI vor.