OpenAI veröffentlicht großes GPT-4o Update: Was sich geändert hat
OpenAI hat ein bedeutendes Update seines Flaggschiff-Modells GPT-4o veröffentlicht, das seine Fähigkeiten in den Bereichen Bildanalyse, wissenschaftliche Datenverarbeitung und Verständnis des aktuellen Kontexts erheblich erweitert.
Eine wichtige Verbesserung war die Erweiterung der zeitlichen Abdeckung der Trainingsdaten von November 2023 bis Juni 2024. Dies ermöglichte dem Modell relevantere und genauere Antworten, besonders in Fragen zu kulturellen und sozialen Trends sowie aktuellen wissenschaftlichen Forschungen. Die aktualisierte Wissensbasis verbesserte auch die Effizienz der Suchanfragen des Modells.
Wesentliche Fortschritte wurden im Bereich der visuellen Informationsanalyse erzielt. GPT-4o zeigt verbesserte Leistungen in MMMU- und MathVista-Tests, was die gesteigerte Fähigkeit des Modells zur Interpretation räumlicher Beziehungen, Analyse komplexer Diagramme, Verständnis von Grafiken und Verknüpfung von visuellem Inhalt mit Textbeschreibungen widerspiegelt.
Die Entwickler legten besonderen Wert auf die Verbesserung der Modellfähigkeiten im MINT-Bereich (Mathematik, Informatik, Naturwissenschaften und Technik). GPT-4o zeigt verbesserte Ergebnisse bei der Lösung mathematischer, wissenschaftlicher und Programmieraufgaben, bestätigt durch erhöhte Werte in GPQA- und MATH-akademischen Tests. Das Modell demonstrierte auch Leistungssteigerungen im umfassenden MMLU-Test, der Sprachverständnis, Wissensbreite und Argumentationsfähigkeit bewertet.
Eine unerwartete Ergänzung war die verstärkte Verwendung von Emojis in den Systemantworten. Das Modell verwendet nun bereitwilliger emotionale Symbole, besonders wenn Benutzer selbst diese im Gespräch verwenden. Diese Innovation zielt darauf ab, eine natürlichere und emotional reichere Kommunikation mit künstlicher Intelligenz zu schaffen.
Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Dongfeng setzt 1,7m große Walker S Roboter mit 41 Servoantrieben einDongfeng Motor vereint Kräfte mit Ubtech Robotics, um innovative Walker S Roboter in die Produktionslinien zu integrieren. Diese technologischen Wunder mit einer Größe von 1 Meter und 70 Zentimetern sind bereit, traditionelle Automobilmontage-Prozesse zu transformieren. Der Generalmanager von Dongfeng Motor betont, dass die Implementierung künstlicher Intelligenz in diesen Robotern die Qualität der Überprüfung und Montage von Komponenten erheblich verbessern wird.
MIT-Doktorand reduzierte Gemälderestaurierung von 230 auf 3,5 StundenDer MIT-Doktorand Alex Kachkin entwickelte eine coole Methode zur Gemälderestaurierung mit Hilfe künstlicher Intelligenz. Die die Arbeitszeit von vielen Monaten auf wenige Stunden verkürzt. Als Demonstration restaurierte er ein Werk eines unbekannten niederländischen Meisters des 15. Jahrhunderts, das schwer von der Zeit gelitten hatte.
KI-Prothese aus Kanada analysiert Objekte und entscheidet, wie sie zu greifen sindKünstliche Intelligenz verleiht Prothesen Selbständigkeit! Wissenschaftler der Memorial University of Newfoundland schufen eine revolutionäre Armprothese, die buchstäblich selbst "denkt". Im Gegensatz zu traditionellen Modellen, die das Ablesen von Muskelsignalen über Sensoren erfordern, ist das neue Gerät vollständig autonom.
DeepSeek packte LLM-Engine in 1200 Zeilen Python-CodeDas DeepSeek-Team stellte nano-vLLM vor. Das ist eine leichtgewichtige und kompakte Engine zum Ausführen großer Sprachmodelle. Die die Vorstellung von Code-Effizienz verändern könnte. Erstaunlich, aber die gesamte Funktionalität passte in nur 1200 Zeilen Python-Code! Das ist echter technologischer Minimalismus in der Welt der künstlichen Intelligenz. Traditionelle Engines wie diese leiden bei all ihrer Macht oft unter einer überladenen Codebasis. Was ihre Modifikation zu einer echten Prüfung für Entwickler macht. Nano-vLLM löst dieses Problem, indem es ein einfaches, aber mächtiges Tool ohne unnötige Komplexität anbietet. Der Code ist offen.
Tesla-Robotaxi-Versagen: 11 Verkehrsverstöße in den ersten Tagen von 20 AutosDer Traum von Robotaxis stößt auf harte Realität! Tesla startete öffentliche Tests autonomer Taxis in Austin, aber die Ergebnisse waren weit entfernt von dem versprochenen technologischen Wunder. In den ersten Testtagen wurden mindestens 11 schwere Verkehrsverstöße registriert. Und das bei nur 20 Fahrzeugen, die für einen begrenzten Kreis von Bloggern ausgewählt wurden. Philip Koopman, Professor an der Carnegie Mellon University und Experte für autonome Technologien, verhehlt seine Überraschung nicht: "Das ist schrecklich schnell für das Auftreten so vieler Videos mit instabilem Fahren".