
Bericht: ChatGPT verbraucht weniger Energie als Haushaltsgeräte
Eine neue Studie des gemeinnützigen Instituts Epoch AI hat die weit verbreitete Annahme über den hohen Energieverbrauch von ChatGPT widerlegt. Laut der Analyse erwies sich der populäre Chatbot von OpenAI als deutlich energieeffizienter als bisher angenommen.
Die Studie zeigte, dass eine durchschnittliche Anfrage an ChatGPT unter Verwendung des neuesten GPT-4o-Modells nur etwa 0,3 Wattstunden Energie verbraucht. Diese Zahl ist zehnmal niedriger als die zuvor zitierte Schätzung von 3 Wattstunden pro Anfrage, die in den Medien weit verbreitet war und mit dem Energieverbrauch von zehn Google-Suchen verglichen wurde.
„Der Energieverbrauch ist tatsächlich unbedeutend im Vergleich zur Nutzung gewöhnlicher Haushaltsgeräte, zum Heizen oder Kühlen eines Hauses oder zu einer Autofahrt,“ erklärte Joshua Yu, Datenanalyst bei Epoch, der die Studie durchführte. Ihm zufolge basierten frühere Studien auf veralteten Daten und gingen davon aus, dass OpenAI weniger effiziente Chips älterer Generation für den Betrieb ihrer Modelle verwendet.
Die Diskussion über den Energieverbrauch von KI bleibt vor dem Hintergrund der rasanten Expansion der KI-Unternehmensinfrastruktur relevant. Erst vor einer Woche veröffentlichten mehr als 100 Organisationen einen offenen Brief, der die KI-Industrie und Regulierungsbehörden auffordert, sicherzustellen, dass neue Rechenzentren keine natürlichen Ressourcen erschöpfen und Versorgungsunternehmen nicht zur Abhängigkeit von nicht erneuerbaren Energiequellen zwingen.
Diese Forschung könnte ein wichtiges Argument in der Diskussion über die Umweltauswirkungen künstlicher Intelligenz werden und zeigen, dass moderne KI-Systeme energieeffizienter sein können als bisher angenommen. Allerdings bleibt der Gesamteinfluss der KI-Industrie auf die Umwelt ein Thema, das von Umweltschützern und Regulierungsbehörden genau beobachtet wird.