24.07.2017

Klimawandel und Elektroschrott – die andere Seite der Digitalisierung

Dank Videokonferenzen müssten Firmenangestellte viel weniger reisen – seit Jahren wird so argumentiert, um die positiven Auswirkungen der Digitalisierung auf die Umwelt zu illustrieren. Ganz so einfach ist es aber nicht, denn die Innovation hat eine schmutzige Seite.
/artikel/klimawandel-und-elektroschrott-die-andere-seite-der-digitalisierung
(c) fotolia.com - vladimircaribb

Vegetarische Wurst aus Soja, Rad fahren bei Kälte und Schneeregen, biologisch abbaubare Babywindeln – die Erde ist unser Lieblingsplanet, und um ihn zu schützen, haben wir uns so einiges einfallen lassen. Es schläft sich dann besser. Mit dem guten Gefühl, sich für den Umweltschutz eingesetzt zu haben, können wir gemütlich den Laptop zur Hand nehmen und eine Doku über Klimaschutz oder Atommüll streamen. Wir können uns mit unseren Freunden über soziale Netzwerke dazu verabreden, uns an Bäume zu ketten, oder auf Amazon nach Biokokosöl suchen.

Dass wir bei all diesen Aktivitäten den Natur- und Umweltschutz dann doch vernachlässigen, daran haben wir bisher kaum gedacht. Den Preis der Digitalisierung haben wir nicht auf Klimawandel und Naturschutz umgerechnet. Und die Vorstellung ist auch irgendwie abstrakt: Die enorme Menge an Daten, die täglich durch das Web geschickt wird, muss irgendwo verarbeitet und gespeichert werden – das ist für die Umwelt in vielerlei Hinsicht eine Herausforderung.

+++ Nachhaltig durchstarten: 4 Anlaufstellen für Green Startups in Österreich +++

Datenzentren als Stromfresser

Da ist zunächst einmal die Frage der Stromversorgung. Bis zu zwölf Prozent der weltweit erzeugten Elektrizität sollen laut Studien vom IT-Sektor verbraucht werden. Das liegt zum einen daran, dass Technologiekonzerne zur Fertigung der Endgeräte immer mehr Energie benötigen. Auf der anderen Seite produzieren digitale Innovationen wie Streamingdienste, Cloud-Computing oder das Internet of Things riesige Mengen an Daten. Im Jahr 2003 existierten weltweit fünf Exabyte an digitalen Inhalten, das entspricht fünf Trilliarden Gigabyte. Bis 2019 sollen jährlich 10,475 Exabyte dazukommen. Um dieses Datenaufkommen stemmen zu können, bleibt IT-Konzernen nichts anderes übrig, als immer neue Datenzentren zu errichten. Dort müssen unzählige Servertürme betrieben und gekühlt werden. Man könnte auch sagen, diese Datenzentren sind sehr hungrig – hungrig nach Strom.

Schmutzige Energiequellen

Wie problematisch sich das massive Datenaufkommen auf Klima und Natur auswirkt, ist laut der Umweltschutzorganisation Greenpeace hauptsächlich davon abhängig, woher der benötigte Strom kommt. Seit 2009 kategorisiert Greenpeace in seinem Clicking-Clean-Report IT-Konzerne nach Schulnotensystem. Als „Klassenbeste“ schneiden dabei Apple, Facebook und Google ab. Alle drei beziehen den Großteil ihrer benötigten Elektrizität aus sogenannten „sauberen“ Quellen und haben es sich vor fünf Jahren zum Ziel gesetzt, ihren Strom zukünftig zu 100 Prozent aus erneuerbaren Quellen zu beziehen – allerdings ohne bindenden Zeitrahmen. Bei Apple und Google soll die Versorgung mit regenerativer Energie derzeit parallel zum Unternehmenswachstum ansteigen.

(c) Greenpeace

Ganz hinten im Ranking liegen die asiatischen IT-Riesen Tencent und Baidu. Beide decken ihren Energiebedarf zu 67 Prozent mit Strom aus Kohlekraftwerken. Auch der Cloud-Computing-Marktführer Amazon Web Services (AWS) landete in den vergangenen Jahren nicht auf den Topplätzen des Rankings. Seit 2016 soll er laut Greenpeace nun aber entscheidende Schritte in Richtung grüne Energieversorgung unternommen haben. Allerdings kritisiert die Umweltorganisation nach wie vor die mangelnde Transparenz des Unternehmens hinsichtlich seiner Energiepolitik. Unter allen Cloud-Providern ist AWS der einzige, der sich weigert, detaillierte Informationen über seinen ökologischen Fußabdruck zu veröffentlichen.

Redaktionstipps

Streaming als Herausforderung

Sehr schlecht schneiden laut Greenpeace Streaming- Plattformen ab, wenn es um die Energieversorgung geht. Und das, obwohl Videostreaming einer der größten Treiber der Datennachfrage ist. 2015 machte es 63 Prozent des weltweiten Internetverkehrs aus. Bis 2020 soll es die 80-Prozent-Marke erreichen. In Nordamerika ist alleine Netflix für mehr als ein Drittel des gesamten Internetverkehrs verantwortlich. Unter den neun von Greenpeace untersuchten Plattformen erhielten vier die Bewertung „Nicht genügend“. Weitere drei, darunter auch Vimeo, bekamen einen Vierer. Einzig die Google-Tochter Youtube wurde mit 56 Prozent sauberer Energieversorgung mit „Sehr gut“ bewertet.

Eine Frage der Politik

Nicht zuletzt ist auch ein politischer Faktor mit einzuberechnen, wenn es um die Energieversorgung der großen Technologiekonzerne geht. Vor allem im asiatischen Raum behindern Monopolstellungen am Elektrizitätsmarkt den Zugang zu erneuerbaren Energieformen. „Wenn es hier zu keiner politischen Veränderung kommt, wird das schnelle Wachstum des Internets in Ostasien vor allem durch Energie aus Kohle und anderen ’schmutzigen‘ Quellen vorangetrieben werden“, heißt es seitens Greenpeace. Aber auch in den USA könnte es unter Donald Trump zu energiepolitisch fragwürdigen Entscheidungen kommen. Der US-Präsident hat schließlich mehrfach angekündigt, die Klimapolitik einzuschränken und die Elektrizität wieder vermehrt aus Kohlekraftwerken beziehen zu wollen. Das ist das genaue Gegenteil von dem, was Obama zuvor mit seinem Clean Power Plan erreichen wollte. Umweltschützer sehen bei der Wiederbelebung der Kohleindustrie vor allem deshalb eine große Bedrohung, da im Raum Virginia derzeit besonders viele neue Datenzentren entstehen, die oft keine erneuerbaren Energien nutzen.

Entsorgungsprobleme bei Elektroschrott

Der hohe Energiebedarf der Datenzentren ist aber nicht der einzige negative Effekt der Digitalisierung auf die Umwelt. Bisher nur unzureichend geklärt ist nämlich auch die Frage der Entsorgung von Elektroschrott. Die Maschinen und Apparate, die ein Rechenzentrum benötigt, haben nur eine begrenzte Lebensdauer. So muss ein Server beispielsweise alle drei bis fünf Jahre ausgetauscht werden. Auch im Privatgebrauch fällt immer mehr schwer recycelbarer Elektromüll an. Das liegt nicht nur daran, dass wir mehr und mehr Geräte besitzen, sondern auch daran, dass wir sie austauschen, lang bevor sie nicht mehr funktionieren – einfach, weil sie aus der Mode gekommen sind.

Ein großer Teil dieser Abfälle wird aus den USA und Europa nach Afrika gebracht und dort auf Feldern verbrannt. Bei diesem Prozess werden chemische Bestandteile der Geräte freigesetzt. Diese sind nicht nur für die verantwortlichen Arbeiter, sondern auch für die Umwelt extrem schädlich. Die giftige Asche wird durch den Wind verteilt und gerät so beispielsweise in das Trinkwasser von Tieren. Die Digitalisierung an sich ist deshalb nicht böse. Das Argument „Wir haben jetzt Videokonferenzen und müssen daher nicht mehr so viel reisen“ hat durchaus seine Berechtigung. Trotzdem, man sagt: „Es ist nicht alles Gold, was glänzt.“ Und so ist es – denn manchmal glänzt nur der Elektroschrott in der afrikanischen Sonne.

+++ 5 österreichische Green-Tech-Startups, die man kennen sollte +++

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Klimawandel und Elektroschrott – die andere Seite der Digitalisierung

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Klimawandel und Elektroschrott – die andere Seite der Digitalisierung

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Klimawandel und Elektroschrott – die andere Seite der Digitalisierung

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Klimawandel und Elektroschrott – die andere Seite der Digitalisierung

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Klimawandel und Elektroschrott – die andere Seite der Digitalisierung

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Klimawandel und Elektroschrott – die andere Seite der Digitalisierung

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Klimawandel und Elektroschrott – die andere Seite der Digitalisierung

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Klimawandel und Elektroschrott – die andere Seite der Digitalisierung

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Klimawandel und Elektroschrott – die andere Seite der Digitalisierung