
Google veröffentlichte das erste lokale Modell Gemini Robotics On-Device
Das Unternehmen Google stellte das coolste Modell Gemini Robotics On-Device vor. Das ist die erste Lösung der Welt, die Computer Vision, Sprachverständnis und physische Aktionen in einem einheitlichen lokalen Paket vereint. Das Roboter von der ständigen Abhängigkeit von Cloud-Computing befreit!
Die Einzigartigkeit des neuen Modells liegt in seiner Universalität. Es funktioniert sowohl mit humanoiden Plattformen als auch mit industriellen zweihändigen Manipulatoren. Beeindruckend ist auch die Fähigkeit des Systems, komplexeste zweihändige Operationen auszuführen. Von Manipulationen mit kleinen Gegenständen bis hin zur Montage von Konstruktionen und dem Transport von Objekten.
Auch die Lerneffizienz funktioniert ausgezeichnet. Dem Modell reichen nur 100 Demonstrationen aus, um neue Aktionen zu erlernen! Dabei wurde das System ursprünglich nur auf dem ALOHA-Datensatz mit menschlichen Anweisungen trainiert. Konnte aber Wissen auf verschiedene robotische Plattformen übertragen.
Google veröffentlichte gleichzeitig das SDK Gemini Robotics. Das ist ein Toolkit für Entwickler, das es ermöglicht, das Modell für spezifische Aufgaben zu kustomisieren.
Vollständig autonome Arbeit für Roboter eröffnet riesige Möglichkeiten für Anwendungen unter Bedingungen instabiler Verbindung. Oder bei Aufgaben, die minimale Antwortlatenz erfordern. Und das könnte der Start einer neuen Ära wirklich eigenständiger Roboter sein!