Zuckerberg lockte 3 Top-Forscher von OpenAI für $100 Millionen
Die epische Schlacht um Talente geht weiter. Und Zuckerberg lockt Elite-Forscher von OpenAI! Mark machte einen echten strategischen Zug und holte 3 herausragende Spezialisten von OpenAI: Lukas Beyer, Alexander Kolesnikov und Xiaohua Zhai.
Sie alle arbeiteten im Züricher Büro von OpenAI und galten als Schlüsselfiguren in den Forschungsprojekten des Unternehmens. Nach Informationen aus zuverlässigen Quellen umfasste das Angebot von Meta ein Kompensationspaket von etwa 100 Millionen Dollar. Eine Summe, die überzeugender war als die Philosophie und Kultur von OpenAI. Die Ironie der Situation liegt darin, dass erst vor wenigen Tagen ich Ihnen erzählte, dass Sam Altman öffentlich die Loyalität seiner Mitarbeiter verkündete. Behauptend, dass, ich zitiere – „die besten von uns noch nicht gegangen sind“, trotz Zuckerbergs Versuchen, sie anzuheuern.
Noch früher prahlte der OpenAI-Chef mit der „einzigartigen Kultur“ in seinem Unternehmen, die angeblich Talente auch angesichts von millionenschweren Angeboten hält. Die Realität war anders. Finanzielle Anreize überwogen schließlich die von Altman geschaffene Atmosphäre. 100 Millionen Dollar sind 100 Millionen Dollar.
Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
MIT-Doktorand reduzierte Gemälderestaurierung von 230 auf 3,5 StundenDer MIT-Doktorand Alex Kachkin entwickelte eine coole Methode zur Gemälderestaurierung mit Hilfe künstlicher Intelligenz. Die die Arbeitszeit von vielen Monaten auf wenige Stunden verkürzt. Als Demonstration restaurierte er ein Werk eines unbekannten niederländischen Meisters des 15. Jahrhunderts, das schwer von der Zeit gelitten hatte.
KI-Prothese aus Kanada analysiert Objekte und entscheidet, wie sie zu greifen sindKünstliche Intelligenz verleiht Prothesen Selbständigkeit! Wissenschaftler der Memorial University of Newfoundland schufen eine revolutionäre Armprothese, die buchstäblich selbst "denkt". Im Gegensatz zu traditionellen Modellen, die das Ablesen von Muskelsignalen über Sensoren erfordern, ist das neue Gerät vollständig autonom.
DeepSeek packte LLM-Engine in 1200 Zeilen Python-CodeDas DeepSeek-Team stellte nano-vLLM vor. Das ist eine leichtgewichtige und kompakte Engine zum Ausführen großer Sprachmodelle. Die die Vorstellung von Code-Effizienz verändern könnte. Erstaunlich, aber die gesamte Funktionalität passte in nur 1200 Zeilen Python-Code! Das ist echter technologischer Minimalismus in der Welt der künstlichen Intelligenz. Traditionelle Engines wie diese leiden bei all ihrer Macht oft unter einer überladenen Codebasis. Was ihre Modifikation zu einer echten Prüfung für Entwickler macht. Nano-vLLM löst dieses Problem, indem es ein einfaches, aber mächtiges Tool ohne unnötige Komplexität anbietet. Der Code ist offen.
Tesla-Robotaxi-Versagen: 11 Verkehrsverstöße in den ersten Tagen von 20 AutosDer Traum von Robotaxis stößt auf harte Realität! Tesla startete öffentliche Tests autonomer Taxis in Austin, aber die Ergebnisse waren weit entfernt von dem versprochenen technologischen Wunder. In den ersten Testtagen wurden mindestens 11 schwere Verkehrsverstöße registriert. Und das bei nur 20 Fahrzeugen, die für einen begrenzten Kreis von Bloggern ausgewählt wurden. Philip Koopman, Professor an der Carnegie Mellon University und Experte für autonome Technologien, verhehlt seine Überraschung nicht: "Das ist schrecklich schnell für das Auftreten so vieler Videos mit instabilem Fahren".