22.01.2020

Faktencheck: Schadet 5G-Strahlung der Gesundheit?

Der neue Mobilfunkstandard 5G schürt in Teilen der Bevölkerung große Ängste - auch in das türkis-grüne Regierungsprogramm hat es die Frage nach der Auswirkung der 5G-Strahlung auf die Gesundheit geschafft. Doch was sagen Wissenschaft und Forschung dazu? Ein Faktencheck.
/artikel/schadet-5g-strahlung-der-gesundheit
Schadet 5G-Strahlung der Gesundheit?
(c) Adobe Stock - Monika Wisniewska

Die von Kritikern befürchteten Auswirkung des neuen Mobilfunkstandards 5G auf die Gesundheit reichen von Aufmerksamkeitsstörungen bei Kindern über ein erhöhtes Krebsrisiko bis hin zu einem Massensterben bei Wildtieren. Ob diese Ängste rund um die 5G-Strahlung getrost als Fehlinformation bzw. Verschwörungstheorien abgetan werden können, oder doch etwas dran ist, ist nicht immer klar. Das zeigt sich etwa auch daran, dass das Thema Eingang in das türkis-grüne Regierungsprogramm gefunden hat. Dort heißt es im Breitband-Unterkapitel im Wortlaut:

„Berücksichtigung wissenschaftlicher Erkenntnisse, insbesondere der vom Parlament beauftragten Technikfolgenabschätzung zu ‚5G Mobilfunk und Gesundheit‘ sowie der Erkenntnisse der WHO und der ÖAW“

+++ In diesen 129 Gemeinden gibt es ab 25. Jänner das 5G-Netz von A1 +++

Tatsächlich ist die Frage durchaus komplex, wie unter anderem das deutsche Portal quarks.de analysiert hat. Zwar lassen sich natürlich einige von einschlägigen Quellen propagierte Horrorszenarien recht leicht widerlegen, bei einigen eher moderaten 5G-Gesundheitsbedenken wurden bislang aber weder endgültige Beweise noch Gegenbeweise erbracht. Hier die wichtigsten Fragen:


Warum sollte es bei 5G anders sein, als bei 4G und 3G?

Ein Stein des Anstoßes in der 5G-Gesundheits-Diskussion ist, dass beim neuen Mobilfunkstandard mehr Sendemasten bzw. Sender notwendig sind, als bei den Vorgängern 4G und 3G. Das liegt daran, dass die Frequenz höher ist, wodurch sich die Reichweite verringert. Konkret lagen die Frequenzen bislang im Bereich bis 2,6 Gigaherz. 5G-Frequenzen liegen zwischen zwei und 3,7 Gigaherz – und mittel- bis langfristig sollen sie noch deutlich höher werden, konkret bis zu 60 Gigaherz. Die neuen Sender kommen zu den bestehenden hinzu, die zum Zweck besserer Netzabdeckung bis auf Weiteres parallel weiterlaufen.

Der zweite Stein des Anstoßes in diesem Zusammenhang ist, dass 5G-Sender aufgrund neuer Möglichkeiten nicht mehr nur in Form von klassischen Handymasten installiert werden, sondern im Prinzip überall in kleinen Kästen, sogenannten Smart Cells, montiert werden können. Das wird auch direkt auf der Straße, etwa an Laternen oder Öffi-Haltestellen, passieren, weswegen man den Sendern im Alltag viel näher kommt.

Diese höhere Dichte bedeutet aber nicht zwingend mehr Strahlung für die Einzelperson. Das liegt an zwei Gründen. Erstens wird der User von seinem eigenen Handy prinzipiell stärker „bestrahlt“, als von den Masten, da er näher am Gerät dran ist. Die Signalstärke des eigenen Smartphones nimmt mit besserem Empfang – also mit mehr Masten – ab. Zweiten ermöglicht die neue Technologie „Beamforming“ den Sendern, die Signale zu bündeln und gezielt auf Empfängergeräte auszurichten, wodurch die Datenübertragung beschleunigt wird – die bisherigen Masten emittierten die Strahlung gleichmäßig. Einem stärkeren Einfluss durch Strahlung sind bei 5G also nur jene Personen ausgesetzt, auf deren Geräten gerade tatsächlich eine Datenübetragung läuft.

Welche messbaren Auswirkungen hat die 5G-Strahlung auf den menschlichen Körper?

In letzter Konsequenz lässt sich diese Frage noch nicht beantworten, weil Langzeitstudien noch ausstehen (siehe dazu auch unten). Grundsätzlich handelt es sich bei 5G-Strahlung, wie auch bei den bisherigen Mobilfunkstandards, um sogenannte hochfrequente elektromagnetische Strahlung. Der Begriff „hochfrequent“ kann dabei durchaus täuschen, denn die Frequenzen im Mobilfunk liegen zwar etwa deutlich über Radiofrequenzen, jedoch deutlich unter jenen des sichtbaren Lichts und um viele Potenzen unter jenen von Röntgen- und radioaktiver Strahlung. Entsprechend wirkt die 5G-Strahlung, anders als die beiden letztgenannten, nicht ionisierend. Sprich: Durch sie ausgelöste Zellmutationen, wie etwa bei Radioaktivität, sind definitiv nicht zu befürchten.

Klar nachgewiesen ist hingegen ein anderer Effekt: Wie auch die Strahlung in Mikrowellen-Herden, die sich in einem ähnlichen Frequenzbereich befindet, versetzt die Mobilfunk-Strahlung Wasser-Moleküle und andere Teilchen in Schwingungen, was zu Reibungswärme führt. Das heißt, bei starker Strahlung – in Mikrowellen-Herden wird dieser Effekt genutzt – kann sie zu einer messbaren Erhöhung der Körpertemperatur führen. Bei Experimenten mit Versuchstieren wurden in dem Zusammenhang auch ein gestörter Stoffwechsel, Verhaltensänderungen und Fehler in der Embryonalentwicklung nachgewiesen – in den Versuchsanordnungen war die Körpertemperatur der Tiere aufgrund der Strahlungsintensität jedoch jeweils dauerhaft um mehr als ein Grad erhöht – eine Beeinträchtigung, die deutlich über den gesetzlichen Grenzwerten für die Handy-Signalstärke liegt (siehe unten). Mit der Temperatur-Frage verbunden sind außerdem Bedenken, dass Handy-Strahlung zu einer Verminderung der Fruchtbarkeit führen kann – Studien genau dazu widersprechen einander aber – weder Beweis noch Gegenbeweis sind ausreichend erbracht.

Die Temperatur-Frage ist jedenfalls einer der Hauptgründe, warum es u.a. in den EU-Staaten konkrete Limits für die Mobilfunk- und damit auch 5G-Strahlungsintensität gibt. Sowohl Sender als auch Handys müssen entsprechend beschränkt werden. Zielwert ist dabei, die Erhöhung der Temperatur unter einem Grad zu belassen. Übrigens: Je höher die Frequenz, desto weniger Tief dringen hochfrequente elektromagnetische Strahlen in den Körper ein – 5G-Strahlung kommt also weniger weit als ihre Vorgänger.

Erhöht sich durch 5G-Strahlung das Krebsrisiko?

Obwohl die 5G-Strahlung, wie oben erläutert, definitiv nicht ionisierend ist, wird auch von einigen Wissenschaftern und Medizinern ein erhöhtes Krebsrisiko durch sie vermutet bzw. behauptet. Tatsächlich stufte die Internationale Agentur für Krebsforschung IARC, die Teil der Weltgesundheitsorganisation WHO ist, Handy-Strahlung 2011 als „potenziell krebserregend“ ein. Und 2018 unterzeichneten 268 Ärzte und Forscher aus Europa – teilweise auch mit politischem Hintergrund – einen Appel an die EU und andere Institutionen („The 5G appeal„). Dort wird ein Stopp des 5G-Ausbaus „empfohlen“, unter anderem mit der Begründung, dass „zahlreiche aktuelle wissenschaftliche Veröffentlichungen“ gezeigt hätten, dass sich durch Mobilfunk-Strahlung das Krebsrisiko erhöhe (es werden noch weitere Auswirkungen angeführt).

Sowohl die Einschätzung der IARC als auch die im Appell angesprochenen Studien sind laut gängiger Lehrmeinung in der Forschung, etwa durch das deutsche Bundesamt für Strahlenschutz, jedoch differenziert zu betrachten. So betrifft die Einstufung der Krebsforschungsagentur die Strahlungsart – also hochfrequente elektromagnetische Strahlung – an sich. Auf die tatsächlich im Alltag bestehende Strahlungs-Intensität im Mobilfunk wird nicht eingegangen. Genau die sei aber eben – auch nach dem 5G-Ausbau – viel zu gering, um eine entsprechende Auswirkung zu haben, sagen die Kritiker der Kritiker.

Nahezu den selben Einwand haben sie auch gegen die Auslegung zweier besonders häufig angeführter aktueller Studien. In einer vom National Toxicology Program, der offiziellen US-Behörde für Toxikologie, wurde bei Mäusen und Ratten – allerdings nur bei männlichen Tieren – ein signifikanter Zusammenhang zwischen Hirn- und Herzkrebs und Handystrahlung festgestellt. In der zweiten Studie von der Universität Bologna wurde bei den „bestrahlten“ Versuchstieren ebenfalls eine (statistisch signifikant) höhere Anzahl an Hirn- und Herztumoren diagnostiziert. Bei beiden Studien waren die Versuchstiere jedoch jeweils über sehr lange Zeiträume mit einer hohen Strahlungsintensität konfrontiert, die weit über den gesetzlichen Grenzwerten in Europa liegt, weswegen ihre Aussagekraft für den Alltag mit 5G-Strahlung angezweifelt wird. Ein Fun Fact: Im US-Experiment lebten die bestrahlten Versuchstiere im Vergleich zu Kontrollgruppe im Durchschnitt trotz höherer Krebs-Rate länger.

Allgemein lässt sich übrigens in der Langzeit-Statistik global kein Zusammenhang zwischen dem Ausbau des Mobilfunks und erfassten Fällen von Krebs feststellen.

Können Menschen besonders empfindlich auf elektromagnetische Strahlung reagieren?

Ein Phänomen, das in den vergangenen Jahren in Zusammenhang mit Molbilfunk-Strahlung auftritt, ist die sogenannte „elektromagnetischen Hypersensibilität“. So führen immer mehr Menschen Symptome wie Kopfschmerzen, Herzrasen, Schlafstörungen oder Übelkeit auf Handy-Strahlung zurück.

Tatsächlich lässt sich bei einigen Tierarten wissenschaftlich nachweisen, dass sie elektromagnetische Strahlung wahrnehmen können – nicht aber beim Menschen. Mehrere Studien zum Thema „elektromagnetische Hypersensibilität“ kommen dagegen zu einem recht eindeutigen Ergebnis. Die Betroffenen zeigen die Symptome demnach, wenn sie glauben zu wissen, der Strahlung ausgesetzt zu sein – nicht zwingend wenn sie ihr tatsächlich ausgesetzt sind – es dürfte sich also um einen psychologischen Effekt handeln.


Fazit

Tatsächlich werden Menschen im Alltag durch den 5G-Ausbau einer erhöhten Mobilfunk-Strahlungsintensität ausgesetzt sein. Das liegt aber primär daran, dass die neuen Sendern zu den bestehenden der bisherigen Mobilfunkstandards dazukommen – auf lange Sicht werden die alten abgebaut werden, wenn die entsprechende Netzabdeckung gewährleistet ist. Diese Intensität ist in allen Fragen rund um 5G-Strahlung und Gesundheit der entscheidende Faktor. Sie ist durch klare Grenzwerte reguliert, die zwar von Kritikern infrage gestellt werden, bezogen auf die genannten Studien aber ausreichend sein dürften. Endgültig lässt sich die Ausgangsfrage aber, wie bereits eingangs festgestellt, derzeit einfach noch nicht beantworten. Dazu braucht es Langzeitstudien. Eines kann aber wohl bereits gesagt werden: Panik ist in Zusammenhang mit 5G-Strahlung nicht angebracht.

Redaktionstipps
Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag