Post Thumbnail

MIT-Wissenschaftler finden Weg zu genaueren Vorhersagen

Forscher des Massachusetts Institute of Technology (MIT) haben eine neue Methode zur Bewertung räumlicher Vorhersagen entwickelt, die die Vorhersagegenauigkeit in verschiedenen Bereichen – von Wettervorhersagen bis zur Luftverschmutzungsbewertung – deutlich verbessern könnte.

Das Wissenschaftlerteam entdeckte, dass traditionelle Validierungsmethoden bei der Lösung räumlicher Vorhersageprobleme schwerwiegende Fehler produzieren können. Wie Tamara Broderick, außerordentliche Professorin für Elektrotechnik und Informatik am MIT, erklärt, liegt das Problem in falschen Annahmen über die Beschaffenheit der Daten.

Klassische Methoden gehen davon aus, dass Validierungs- und Testdaten unabhängig und identisch verteilt sind. Dies ist jedoch bei räumlichen Problemen oft nicht der Fall. Zum Beispiel werden EPA-Luftverschmutzungssensoren unter Berücksichtigung der Position anderer Sensoren platziert, und Daten aus städtischen und ländlichen Gebieten können unterschiedliche statistische Eigenschaften aufweisen.

Die neue MIT-Methode basiert auf der Annahme sanfter Datenänderungen im Raum. “Luftverschmutzungswerte ändern sich wahrscheinlich nicht dramatisch zwischen zwei benachbarten Häusern,” erklärt Broderick. Dieser Ansatz erwies sich in den meisten Experimenten als genauer, einschließlich Windgeschwindigkeitsvorhersagen am O’Hare Flughafen in Chicago und Lufttemperatur in fünf US-Metropolen.

Die Technologie kann in verschiedenen Bereichen breite Anwendung finden:

  • Klimatologie (Vorhersage der Meeresoberflächentemperatur)
  • Epidemiologie (Bewertung der Auswirkungen von Luftverschmutzung auf Krankheiten)
  • Meteorologie (Wettervorhersage)
  • Umweltüberwachung

Die von der National Science Foundation und dem Office of Naval Research unterstützte Forschung wird auf der International Conference on Artificial Intelligence and Statistics vorgestellt.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.

Latest News

GPT-5 wurde in 24 Stunden gehackt

2 unabhängige Forschungsunternehmen NeuralTrust und SPLX entdeckten nur 24 Stunden nach der Veröffentlichung von GPT-5 kritische Schwachstellen im Sicherheitssystem des neuen Modells. Zum Vergleich: Grok-4 wurde in 2 Tagen gehackt, was den Fall mit GPT-5 noch beunruhigender macht.

Cloudflare blockierte Perplexity für 6 Millionen versteckte Anfragen pro Tag

Cloudflare versetzte Perplexity AI einen vernichtenden Schlag und blockierte dem Such-Startup den Zugang zu Tausenden von Websites. Der Grund? Beispielloses verstecktes Scannen von Web-Ressourcen entgegen expliziten Verboten der Eigentümer!

Drohungen und $1 Billion verbessern die Arbeit neuronaler Netzwerke nicht

Sie haben sicherlich diese "geheimen Tricks" zur Steuerung neuronaler Netzwerke gesehen. Wie Drohungen, Belohnungsversprechen, emotionale Manipulationen. Aber funktionieren sie wirklich? Forscher der University of Pennsylvania und der Wharton School führten ein großangelegtes Experiment mit 5 fortschrittlichen Modellen durch: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini und GPT o4-mini.

Anthropic integrierte Opus 4.1 in Claude Code und Cloud-Plattformen

Anthropic veröffentlichte Claude Opus 4.1. Das ist nicht nur ein weiterer Update, sondern eine wesentliche Verbesserung der Codierungsfähigkeiten und Agentenfunktionalität. Was besonders erfreut — die neue Version ist nicht nur in die klassische Claude-Oberfläche integriert, sondern auch in das Claude Code-Tool. Sowie über API, Amazon Bedrock und Google Cloud Vertex AI verfügbar.

OpenAI veröffentlichte erste Open-Source-Modelle in 6 Jahren

OpenAI veröffentlichte die ersten Modelle mit offenem Quellcode in den letzten 6 Jahren! Der versprochene Release fand statt.