Stromfresser Künstliche Intelligenz

5 min lesen

KÜNSTLICHE INTELLIGENZ

ChatGPT und Co. sind die neuen Superstars der Künstlichen Intelligenz. Doch der enorme Energiehunger der dahinterstehenden Sprachmodelle macht sie zu potenziellen Klimakillern. Wir haben Energieexperten dazu befragt

FOTO: HLRS STUTTGART

Sie verstehen unsere Sprache, reden mit uns und schreiben Gedichte. Die Leistungen großer Sprachmodelle wie GPT-4 oder Gemini sind beeindruckend und eröffnen neue Möglichkeiten in so unterschiedlichen Lebensbereichen wie Kommunikation, Lernen oder Kreativität. Bei allen Wundern der neuen Technik, sie hat eine wenig beachtete Schattenseite: Die Sprachfähigkeiten der Modelle basieren auf künstlichen neuronalen Netzen mit Milliarden von Parametern, und deren Training verschlingt Unmengen an elektrischer Energie. Parallel dazu steigt die Zahl der Chatbot-Nutzer rasant und lässt den Stromverbrauch weiter explodieren.

Pessimistischen Schätzungen zufolge könnte eine Anfrage an einen Chatbot bis zu 30-mal so viel Energie kosten wie eine einfache Internetsuche mit Stichwörtern (s. rechts). Hochgerechnet auf die aktuell neun Milliarden Google-Anfragen würde das einen Strombedarf in der Größenordnung des Verbrauchs eines kleinen Landes wie Irland ergeben. Und auch das anfängliche Training eines großen Sprachmodells verursacht in der Regel Stromkosten von mehreren Hunderttausend Euro.

Stromverbrauch unbekannt

Bevor diese Verbräuche effektiv gesenkt werden können, müssen sie erst einmal im Detail bekannt sein. „Nach unserer Erfahrung wissen die Entwickler dieser Modelle aber häufig selbst nicht genau, wofür sie ihre Energie verbrauchen“, sagt Peter Radgen, Professor für Effiziente Energienutzung am Institut für Energiewirtschaft und Rationelle Energieanwendung der Universität Stuttgart. Im Projekt NADIKI (Nachhaltigkeitsindikatoren für digitale Infrastruktur & KI) haben er und sein Team es sich zum Ziel gesetzt, den Energieverbrauch und den damit verbundenen CO2-Ausstoß von KI-Anwendungen über Schnittstellen bereitzustellen und transparent zu machen.

Einen möglichen Ansatzpunkt, um Künstliche Intelligenz nachhaltiger zu gestalten, sieht Radgen in der Auslastung der Rechenzentren. „Die Effizienz ist immer dann am größten, wenn die Rechner optimal ausgelastet sind“, erklärt der Forscher. Oft befänden sich die Server aber auch im Leerlauf und verbrauchten Strom, ohne produktiv zu arbeiten. „Das ist, als würde man bei einem Auto die ganze Zeit den Motor laufen lassen, nur um dann irgendwann losfahren zu können.“ So hat eine genaue Analyse des Open-Source-Sprachmodells BLOOM ergeben, dass ein Drittel der für das Training aufgewendeten Energie für leerlaufende Rechner verschwendet wurde.

Klein aber oho Googles Gemini-Sprachmodelle gibt es in drei Größen vom Basismodell Ultra, über Pro bis hin zu Nano. Letzteres

Dieser Artikel ist erschienen in...

Ähnliche Artikel

Ähnliche Artikel