Post Thumbnail

Supercomputer und 12 Milliarden Parameter: Krutrim eröffnet ein neues Kapitel in der indischen KI

Der Gründer des Unternehmens Ola und Milliardär Bhavish Aggarwal kündigte eine Investition von 230 Millionen Dollar in sein KI-Startup Krutrim an, mit der Absicht, Indien zu einem führenden Akteur im globalen Rennen um künstliche Intelligenz zu machen. Laut informierten Quellen bei TechCrunch wird die Finanzierung hauptsächlich über Aggarwals Family Office erfolgen, wobei die Gesamtinvestitionen bis zum nächsten Jahr 1,15 Milliarden Dollar erreichen sollen.

Krutrim markierte ein wichtiges Ereignis durch die Öffnung des Zugangs zu seinen KI-Modellen und die Ankündigung des Baus des größten Supercomputers Indiens in Partnerschaft mit Nvidia. Das Unternehmen stellte Krutrim-2 vor – ein Sprachmodell mit 12 Milliarden Parametern, das sich auf die Verarbeitung indischer Sprachen spezialisiert.

Die Testergebnisse sind beeindruckend: Bei der Textsentimentanalyse zeigte das Modell ein Ergebnis von 0,95 im Vergleich zu 0,70 bei Konkurrenten und erreichte bei Codegenerierungsaufgaben 80% Erfolg. Die technischen Fähigkeiten umfassen ein Kontextfenster von 128.000 Tokens, das die Verarbeitung langer Texte und komplexer Dialoge ermöglicht. Bei Grammatikkorrektur-Tests erreichte das Modell 0,98 und bei mehrstufigen Gesprächen 0,91.

“Wir sind noch weit von globalen Standards entfernt, haben aber in einem Jahr gute Fortschritte erzielt”, bemerkte Aggarwal. “Durch die Öffnung des Zugangs zu unseren Modellen hoffen wir auf eine Zusammenarbeit der gesamten indischen KI-Gemeinschaft zur Schaffung eines Ökosystems von Weltklasse.”

Krutrim hat auch sein eigenes BharatBench-Bewertungssystem für die Prüfung der Effektivität von KI-Modellen bei der Arbeit mit indischen Sprachen entwickelt und füllt damit eine Lücke in bestehenden Bewertungssystemen, die sich hauptsächlich auf Englisch und Chinesisch konzentrieren.

Die Initiative entstand vor dem Hintergrund des Bestrebens Indiens, seine Position im Bereich der künstlichen Intelligenz zu stärken, wo amerikanische und chinesische Unternehmen dominieren. Kürzlich begrüßte Indien die Fortschritte des chinesischen Unternehmens DeepSeek und kündigte die Platzierung seiner Sprachmodelle auf inländischen Servern an. Die Cloud-Abteilung von Krutrim hat bereits begonnen, Zugang zu DeepSeek auf indischen Servern bereitzustellen.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
Neues Modell von DeepSeek erkennt Dokumente günstig und effizient

DeepSeek hat ein neues Modell zur Dokumentenerkennung herausgebracht. Und wissen Sie was? Es liest nicht nur Text von Seiten - es versteht die Struktur. Und macht dies günstig und effizient, was eine Seltenheit in der Welt der künstlichen Intelligenz ist.

OpenAI hat offiziell Veröffentlichung von GPT-6 bis Jahresende dementiert

Bei OpenAI entschied man sich, die Erwartungen der Öffentlichkeit zu dämpfen und gab zu: GPT-6 wird es dieses Jahr nicht geben. Aber beeilen Sie sich nicht, enttäuscht zu sein - das bedeutet nicht, dass das Unternehmen untätig sitzt.

Vater des Reinforcement Learning prophezeite Ende der Ära großer Sprachmodelle

Richard Sutton - das ist einer der Väter des Reinforcement Learning und Turing-Award-Preisträger. Nun hat er erklärt, dass die Ära der großen Sprachmodelle zu Ende geht. Danach kommt seiner Meinung nach die Ära der Erfahrung. Und hier ist, warum er das so denkt.

Künstliche Intelligenz erkennt ADHS ohne Fragebögen und Ärzte

Stellen Sie sich vor, man könnte ADHS einfach dadurch diagnostizieren, wie Ihr Gehirn flackernde Buchstaben auf dem Bildschirm verarbeitet. Keine Fragebögen, keine monatelangen Wartezeiten auf einen Termin beim Spezialisten. KI schaut auf Ihre visuellen Rhythmen und gibt ein Urteil mit 92% Genauigkeit ab. Klingt wie Science-Fiction? Aber das ist bereits Realität.

OpenAI blamierte sich zweimal, indem sie alte Lösungen als GPT-5-Entdeckungen ausgaben

OpenAI schaffte es, sich zweimal auf denselben Rechen zu blamieren. Und der zweite Versuch wurde noch peinlicher als der erste.