27.05.2021

Report: Diese 5 Gründe könnten den Goldpreis bis auf 4.800 Dollar steigen lassen

Der "In Gold We Trust"-Report von Incrementum für 2021 sieht die Welt in einem "monetären Klimawandel" - der unter anderem durch höhere Inflationsraten und dauerhaft negative Zinsen gekennzeichnet ist.
/artikel/in-gold-we-trust-report
Gold-Experte Ronald-Peter Stöferle
Gold-Experte Ronald-Peter Stöferle | Foto: Incrementum

Für die meisten Goldanleger ist er ein Fixpunkt im Jahr – der „In Gold We Trust“-Report des Liechtensteiner Vermögensverwalters Incrementum. Am Donnerstag präsentierten Mark Valek und Ronald-Peter Stöferle die diesjährige Ausgabe. Die beiden Gold-Experten sehen die Welt vor einem „monetären Klimawandel“ – einem vielschichtigen Paradigmenwechsel in der Fiskal- und der Geldpolitik.

Dessen Folgen: Höhere Inflationsrate, negative Realzinsen – und ein steigender Goldpreis. „Die erhöhten Teuerungsraten werden eben nicht so schnell vorübergehen. Sie sind nicht temporär, wie uns die Notenbanker im Moment alle erzählen“, sagte Stöferle bei der Studienpräsentation in Wien. Die Realzinsen – also die Zinsen bereinigt um die Teuerung – seien der „wahrscheinlich wichtigste Einflussfaktor“ für den Goldpreis – und sie würden „auf Jahre hin im negativen Terrain verbleiben“, führte Stöferle weiter aus. Dies würde zu einer Flucht in Sachwerte führen. Neben Gold könnten seiner Meinung nach auch Rohstoffe und Silber besonders profitieren.

Goldpreis zog 2020 bis Sommer an und fiel dann zurück

Im Vorjahr war der Goldpreis in US-Dollar gerechnet um 25 Prozent gestiegen, in Euro um rund 15 Prozent. „Gold hat in einem sehr volatilen und extrem turbulenten Jahr seine Qualitäten als solider und verlässlicher Verteidiger und Beweis gestellt“, sagte Stöferle. Auf den Ausbruch der Coronakrise hatte der Goldpreis zunächst negativ reagiert. In den Folgemonaten zog er jedoch deutlich an und stieg im August bis auf 2.075 US-Dollar – zumindest wenn man nicht um die Inflation bereinigt, war dies ein Allzeithoch. Auch in vielen anderen Währungen erreichte er nominale Rekordstände. „Gleichzeitig fielen die Renditen zehnjähriger US-Staatsanleihen auf ein Tief“, erläutert Stöferle.

Ab dem Sommer ging es für den Goldpreis dann wieder abwärts: „Seither sind die Renditen der zehnjährigen US-Staatsanleihen gestiegen und im Gleichlauf ist der Goldpreis wieder heruntergekommen“, führt der Edelmetall-Experte aus. Im bisherigen Jahresverlauf 2021 liegt das Edelmetall mit aktuell 1.900 Dollar knapp im Plus. In Euro betrachtet ergibt sich seit Jahresbeginn leicht im Minus.

Rufe nach Deckelung von Anleihenzinsen

Aufgrund der steigenden Anleihenzinsen seien schon im Vorjahr Rufe laut geworden, die US-Notenbank solle den Zinsanstieg doch begrenzen, führt Stöferle aus. Steuert die Zentralbank neben den kurzfristigen Zinsen auch mittel- oder langfristige, spricht man im Fachjargon von „Yield Curve Control“. Genau dies werde „früher oder später, implizit oder explizit“ auch kommen, ist Stöferle überzeugt. Der Grund: Die hohen Staatsschulden. Die Staaten seien mittlerweile so hoch verschuldet, dass ihre Anleihen nur mehr von den Notenbanken aufgekauft werden können, glaubt Stöferle. In den meisten Ländern seien die Schuldenstände so hoch wie nie zuvor in Friedenszeiten.

Mit einer nachhaltigen Zinswende sei daher noch weniger zu rechnen als in der Vergangenheit. „Es ist wahrscheinlicher, dass Rapid Wien die Champions League gewinnt als dass wir nachhaltig und signifikant positive Realzinsen sehen werden“, sagt der Fußballfan Stöferle. Negative Realzinsen seien allerdings das beste Umfeld für den Goldpreis.

Auch in Zukunft sind massive geldpolitische Unterstützungsmaßnahmen der Zentralbanken für die Konjunktur zu erwarten. „Der große Unterschied zur Finanzkrise 2008/09 ist, dass wir diesmal auch unvorstellbar große fiskale Stimuli sehen“, sagt Stöferle mit Bezug auf die Hilfspakete der Regierungen, die zu den Stützungsmaßnahmen der Notenbank noch dazukämen.

Unter anderem auch deswegen sehen die Autoren den „monetären Klimawandel“ gekommen. Dieser kennzeichent sich vor allem durch fünf grundlegende Punkte:

1. Budgetäre Nonchalance

Konservative Haltungen in der Budgetpolitik seien mittlerweile längst über Bord geworfen worden, sagte Mark Valek bei der Studienpräsentation. Hätte in der Eurozone nach der Griechenland-Krise noch das Credo der „schwäbischen Hausfrau“ geherrscht, würden sich die Regierungen nun zunehmend in der Rolle als „Big Spender“ gefallen, heißt es in dem Report. Beschränkungen wie die US-Schuldenobergrenze, nationale Schuldenbremsen und die europäischen Maastricht-Kriterien seien ausgesetzt, großzügig interpretiert oder schlichtweg ignoriert worden.

2. Verschmelzung von Geld- und Fiskalpolitik

Direkt damit verbunden: Die zunehmende Verschmelzung der Geldpolitik der Notenbanken mit der Fiskalpolitik der Regierungen. „In einem ungedeckten Geldsystem sollten die beiden Bereich strikt getrennt sein“, erläuterte Valek. Sinnbildlich für die Verschmelzung stünde die Ernennung der früheren US-Notenbank-Chefin Janet Yellen zur Finanzministerin in der Regierung von Joe Biden. In Italien wiederum ist der frühere Präsident der Europäischen Zentralbank (EZB), Mario Draghi, Ministerpräsident geworden.

3. Neue Aufgaben der Geldpolitik

Ein weiterer Aspekt des „monetären Klimawandels“, wie ihn Stöferle und Valek sehen: Zentralbanken nehmen zunehmend Aufgaben außerhalb ihrer Kernkompetenz Preisstabilität wahr – oder diskutieren dies zumindest. „Immer öfter gewinnt man den Eindruck, dass sich Notenbanker häufiger zu Themen wie Nachhaltigkeit, Klimawandel oder Diversität zu Wort melden, als zu geldpolitischen Angelegenheiten“, heißt es dazu im Report. Außerdem werde vielorts neu definiert, was man überhaupt unter Preisstabilität verstehe. Die US-Notenbank hat die Definition ihres Inflationsziel bereits neu festgelegt – und zwar so, dass dieses als Durchschnittswerte zu verstehen ist und nicht als Obergrenze. Die EZB wird wohl folgen, vermuten die Autoren des Reports.

4. Digitale Zentralbankwährungen und dezentrale Kryptowährungen

Sowohl digitale Zentralbankwährungen als auch dezentrale Kryptowährungen seien ein weiterer Ausdruck des geldpolitischen Wandels, führte Valek weiter aus. Die von den Zentralbanken geplanten Digitalwährungen seien „ein Wolf im Schafspelz“, heißt es in dem Report. Sie würden die Umsetzung noch tieferer Negativzinsen oder auch die Zurückdrängung von Bargeld ermöglichen. Dies wäre „ein Meilenstein am Weg zum gläsernen Bürger“, schreiben die Autoren. Dezentrale Kryptowährungen dagegen seien nicht inflationierbar und es sei zu erwarten, dass sie in Zeiten des „monetären Klimawandels“ weiterhin florieren.

5. Neue Eiszeit zwischen Ost und West

Die Divergenz zwischen den USA und ihren Verbündeten einerseits sowie China und Russland auf der anderen Seite bestand zwar auch schon vor der Pandemie, heißt es im Report. Allerdings habe sie sich zuletzt weiter beschleunigt. Dies wirke sich auch auf die internationale Währungspolitik aus. „Das Streben nach neuen Handels- und Reservewährungen nimmt weiter zu“, schreiben die Autoren. Der Dollar verliere zunehmend an Relevanz.

„Pendel schlägt auf inflationären Druck um“

Diese fünf Aspekte haben nach Einschätzung der Autoren eines gemeinsam: „Alle haben aus unserer Sicht mehr inflationäre Auswirkungen als disinflationäre“, sagte Valek. Daher sei es wahrscheinlich, dass diese Punkte zu einer deutlich höheren Teuerung führen werden als sie in den vergangenen Jahren üblich war.

Darauf deute auch der Anstieg der US-Verbraucherpreise seit Jahresbeginn hin: „Wir kommen gerade erst aus dieser harten Rezession und an deren Ende sehen wir schon sehr erhöhte Inflationsraten, obwohl wir erst am Anfang der Öffnungsphase der Wirtschaft stehen“, sagte Valek. Das Inflationspendel habe im Vorjahr endgültig umgeschlagen und die inflationären Kräfte seien nun stärker als die deflationären.

Kursziel 4.800 Dollar bis 2030

Was bedeutet dies nun alles für den Goldpreis? In einem konservativen Basisszenario – ohne außergewöhnlich hohe Inflationsraten – erwarten die Autoren bis Ende des Jahrzehnts einen Preis von 4.800 Dollar. Sollte die Inflation jedoch stärker steigen, dann steige auch die Wahrscheinlichkeit, dass das für ein inflationäres Jahrzehnt berechnete Kursziel für 2030 erreichte werde – dieses liegt bei 8.900 Dollar. „Sollte die Teuerung in den kommenden Jahren signifikant steigen, sind aus unserer Sicht am Ende der Dekade auch fünfstellige Goldpreise denkbar“, heißt es im Report.

Wie wird sich der Goldpreis aber in diesem Jahr entwickeln? Dazu haben die Autoren implizite Wahrscheinlichkeiten vom Optionsmarkt herangezogen. Ihren Berechnungen zufolge liegt die Wahrscheinlichkeit eines Goldpreises von 2.100 Dollar oder höher für Dezember 2021 bei 45 Prozent. Die Wahrscheinlichkeit, dass das Edelmetall bis auf 1.650 Dollar oder tiefer zurückfallen wird, beträgt dagegen demnach weniger als 5 Prozent.

Wie aber nun investieren?

Und wie soll man nun investieren? Dass die Autoren Gold empfehlen, liegt auf der Hand – aber sonst? „Sachgüter, insbesondere Aktien auf den richtigen Sektoren, Rohstoffe und Edelmetalle“ sollten eine „solide Basis“ eines Portfolios bilden, heißt es im Report. Bei Aktien sehen die Autoren vor allem gute Aussichten für Titel von Minen-Unternehmen. Für Anleihen wiederum wäre das erwartete Szenario dagegen sehr schlecht.

Und Kryptowährungen? Diese werden physisches Gold als Wertanlage nicht ablösen, erwarten Stöferle und Valek. Aber als Beimischung zu einem Gold-Portfolio sei Bitcoin sinnvoll. Das erwartete Inflations-Szenario sei „kompatibel mit weiter stark steigenden Preisen für Bitcoin“, heißt es im Report.

Disclaimer: Dieser Text sowie die Hinweise und Informationen stellen keine Steuerberatung, Anlageberatung oder Empfehlung zum Kauf oder Verkauf von Wertpapieren dar. Sie dienen lediglich der persönlichen Information. Es wird keine Empfehlung für eine bestimmte Anlagestrategie abgegeben. Die Inhalte von brutkasten.com richten sich ausschließlich an natürliche Personen.

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag