✨ AI Kontextualisierung
Mit Chat GPT erlebte der Hype rund um Künstliche Intelligenz seinen Peak. Der Chatbot hat aber auch seine Schattenseiten. Neben teils obskuren Antworten, brutkasten berichtete ausführlich, ist Chat GPT sehr Energie-intensiv.
Chat GPT braucht 700.000 Liter Wasser
Eine Analyse, die vor einigen Wochen durchgeführt wurde, kam zu dem Schluss, dass die Trainings von GPT-3, der Basis von Chat GPT, rund 1.300 Megawattstunden an Strom verbraucht. Das entspricht etwa dem Jahresverbrauch von 200 Menschen.
Die Universitäten von Colorado Riverside und Texas Arlington haben sich darüber hinaus nun den Wasserverbrauch des Chatbots angesehen. Die Rechenzentren von GTP-3 würde in den Rechenzentren knapp 700.000 Liter Wasser verbrauchen.
Das entspricht etwa den Dimensionen, die für die Herstellung von 370 BMW-Autos oder 320 Tesla-Elektrofahrzeugen gebraucht würden. Die Daten beziehen sich auf die Rechenzentren in den USA, asiatische würden den Wasserverbrauch gar verdreifachen.
KI schlägt Lösungen für eigenes Problem vor
Die Autor:innen der Studie nennen den Verbrauch mit Blick auf die Süßwasserknappheit auf der Welt und dem raschen Bevölkerungswachstum “äußerst besorgniserregend”. Von den Forscher:innen kommt daher der Appell, dass die Entwickler:innen mit gutem Beispiel vorangehen sollen und ihren Wasser-Fußabdruck verkleinern sollen.
Chat GPT selbst hat eine klare Antwort auf die brutkasten-Frage, ob KI-Modelle in Zeiten von Wasserknappheit ethisch vertretbar seien: “Es ist wichtig, bei der Entwicklung und Verwendung von KI-Modellen die Auswirkungen auf die Umwelt und die Gesellschaft zu berücksichtigen. Wenn die Kühlung dieser Modelle jedoch die Wasserknappheit vorantreibt, dann müssen die Entwickler und Nutzer sorgfältig prüfen, wie sie mit diesem Problem umgehen können”.
Laut der KI sei es wichtig “effizientere Kühlungssysteme zu verwenden, die weniger Wasser verbrauchen oder alternative Kühlungsmethoden wie Luft- oder Flüssigstickstoff zu nutzen”. Letztlich liegt, dem Chatbot zufolge, die Verantwortung bei den Entwickler:innen.