14.02.2025
HIGH-TECH GRÜNDERFONDS

Tanja Emmerling: „Wir sind der aktivste Seed-Investor in Europa“

Interview. Im Gespräch mit brutkasten spricht Tanja Emmerling, Partnerin beim High-Tech Gründerfonds, über die Bedeutung von Deep-Tech-Investitionen und die Rolle des Fonds als aktivster Seed-Investor in Europa.
/artikel/tanja-emmerling-wir-sind-der-aktivste-seed-investor-in-europa
High-Tech Gründerfonds: Principal Tanja Emmerling gibt im Gastbeitrag Pitching-Tipps
Tanja Emmerling ist Partnerin beim High-Tech Gründerfonds. © High-Tech Gründerfonds

Tanja Emmerling ist seit über einem Jahrzehnt erfolgreich als Investment-Managerin im Digital-Tech-Sektor aktiv. Mit einem Portfolio von 14 Unternehmen und der Begleitung von rund 30 Beteiligungen als Projektleiterin hat sie sich als Expertin im Bereich der Startup-Finanzierungen etabliert. 2018 übernahm sie eigenverantwortlich den Aufbau des Berliner Standorts des High-Tech Gründerfonds und leitet seither die Dependance in Berlin.

Der High-Tech Gründerfonds wurde 2005 ins Leben gerufen, um den damals stagnierenden Markt für Gründungsfinanzierungen neu zu beleben. Sein Fokus liegt bis heute auf Tech-Startups mit hohem Wachstumspotenzial, wobei Investitionsentscheidungen – wie es seitens des Fonds heißt – „nach rein marktwirtschaftlichen Kriterien“ getroffen werden.

Im Gespräch mit brutkasten gibt Emmerling einen Einblick in die Welt der Deep-Tech-Investitionen und die Strategie des Fonds. Zudem spricht sie über die Herausforderungen europäischer Startups beim Börsengang und notwendige Änderungen auf europäischer Ebene, um im globalen Wettbewerb konkurrenzfähig zu bleiben.


brutkasten: In welchen Bereichen investiert der High-Tech Gründerfonds? Gibt es am Markt aktuell gewisse Trends oder spezifische Nischen, wo ihr einen Fokus legt?

Tanja Emmerling: Der High-Tech Gründerfonds ist als der aktivste Seed-Investor in Europa einzuordnen. Wir haben aktuell zwei Milliarden Euro unter Management, befinden uns in der vierten Fonds-Generation, verfügen über 500 Millionen im laufenden Fonds und haben zusätzlich einen Wachstumsfonds für unser eigenes Portfolio, um auch die großen Tickets im later Stage stemmen zu können.

Das ist deshalb entscheidend, weil gerade die Deep-Tech-Bereiche sehr kapitalintensiv sind, wenn die wirklich spannenden Unternehmen später entsprechend große Investments benötigen, um in die Wachstumsgrößen zu gelangen. Da in Europa und auch in Deutschland nach wie vor ein Mangel an solchen Finanzierungen besteht, können wir bei einer top Performance hier gut unterstützen. 

Dabei haben wir einen Technologiefokus, der die komplette Bandbreite abdeckt: Wir beschäftigen uns mit Life Sciences, inklusive Drug Development, Digital Tech, wo auch die digitalen SaaS-Plattformen einzuordnen sind, und einem Sektor, den wir als Industrial Tech bezeichnen. Industrial Tech umfasst Bereiche mit einem gewissen Hardware-Software-Bezug, die produktionslastig sind, aber auch Themen wie Mobility, Energiemanagement, Circular Economy, Agritech, Halbleiter, Aviation, New Space, Quantum Computing und in Teilen auch Artificial Intelligence – jeweils soweit diese in Produktionsprozesse eingebunden werden. 

Gerade in Deutschland ist dieser Bereich von großer Bedeutung, da unsere Wirtschaft vom Mittelstand lebt – den Hidden Champions, die stark produktionslastig und exportgetrieben sind, sich im Umbruch befinden, sich selbst erneuern, neue Innovationen finden und teilweise auch einen Generationswechsel durchlaufen. 

2021 boomten Startup-Finanzierungen. 2022 kühlte der Markt wegen des Ukraine-Kriegs, steigender Zinsen und anderer Faktoren ab. Wie hat sich das auf eure Investment-Strategie ausgewirkt?

Tanja Emmerling: Überraschenderweise hat sich bei uns gar nichts grundlegend verändert. Wir tätigen rund 40 Investments pro Jahr und konnten die Investitionsschlagzahl im Seed-Bereich durch alle Krisen aufrechterhalten. Das kommt zum Teil daher, dass wir selbst eine Art ‚Krisengeburt‘ erlebt haben – wir stammen ja aus der Dotcom-Ära, als im Anschluss kaum ein Investor noch in Technologie und Innovation investieren wollte und Venture Capital kaum bekannt war. Damals wurde der High-Tech Gründerfonds, auch über eine Initiative von Kanzler Schröder, gegründet, um Technologie in den Markt zu bringen – in Kooperation mit Partnern wie Bosch, Siemens und anderen – und damit marktkonform die Technologieinnovation zu fördern. 

Diese Erfahrungen haben uns gelehrt, wie man Krisen bewältigen kann. Wir investieren also auch direkt in Krisenphasen. Wir wissen, wie man Unternehmen so aufbaut, dass sie schnell eine stabile Pipeline erreichen, eine ausreichende Runrate erzielen und im Fundraising gut vorbereitet sind. Seit der Corona-Phase und auch nach dem Ukraine-Konflikt waren die meisten unserer Portfoliounternehmen gut aufgestellt, weil sie wussten, dass sie ihren Runway verlängern und sich auf zusätzliche Herausforderungen im Fundraising einstellen müssen. Das hat dazu geführt, dass es nicht zu überraschend hohen Ausfällen kam und wir insgesamt sehr gut durch diese Phasen gekommen sind. 

Natürlich hat sich in dieser Zeit durch das veränderte Zinsniveau auch die Fremdfinanzierung – die ja stark in Deep-Tech-Modelle einfließt – verändert. Hier wurden teilweise andere Finanzierungsprodukte, wie Corona-Fazilitäten und Fördermittel in Deutschland, genutzt. Insgesamt wurde die Mittelallokation in den Unternehmen sehr gut gesteuert. Man könnte sagen, dass wir in diesem Deep-Tech-Bereich antizyklisch agieren. Das Risiko ist zwar hoch – gerade, weil es sich oft um langfristige Finanzierungen handelt –, aber es ist wichtig, die Schlagzahl aufrechtzuerhalten, statt abzuwarten, bis alle wieder in den Markt wollen und bei extrem hohen Bewertungen einsteigen.

Zu den Investoren High-Tech-Gründerfonds zählen auch über 40 Corporates aus unterschiedlichsten Branchen. Wie nehmt ihr hier die Investitionsbereitschaft in Deep-Tech aktuell wahr?

Tanja Emmerling: Ja, ich glaube, dass gerade in der aktuellen Situation das Bewusstsein für den Erhalt der Binnenwirtschaft in Deutschland stark gewachsen ist. Unternehmen wollen ihre eigene IP halten und ihren Forschungsstandort sichern, um sich an den Industrien und den Innovationen zu orientieren – ohne zu sehr abhängig zu werden. Das Bewusstsein und die Offenheit für Innovationen ist also deutlich gewachsen, auch bedingt durch das Marktumfeld. 

Andererseits beobachten wir, dass größere Konzerne in Zeiten wirtschaftlicher Unsicherheit wieder stärker auf ihr Kerngeschäft setzen. Für unsere Portfoliounternehmen ist es deshalb wichtig, zu wissen, wie offen die Corporates für Kooperationen sind, wie schnell sie als Kunden agieren oder auch Zukäufe tätigen. Aktuell befinden sich viele in einer Warteposition, aber ich bin überzeugt, dass sich damit bald wieder ein neuer Impuls einstellt und die Bereitschaft in der deutschen Wirtschaft, also gerade im industriellen Bereich, deutlich steigt.

In Deep-Tech ist IP essenziell. Europa ist stark bei Patenten, aber schwach in der Kommerzialisierung. Was muss sich ändern, damit Europa im globalen Wettbewerb, besonders mit den USA, mithalten kann?

Tanja Emmerling: Ich glaube, dass ein grundlegendes Thema darin besteht, dass Forschungsinstitutionen oder Universitäten die Transformation von IPs in Unternehmen schneller vorantreiben müssen, damit diese direkt damit arbeiten können. 

Es hat sich bereits viel getan, denn Universitäten zeigen heute eine deutlich größere Bereitschaft und haben ein besseres Verständnis dafür, wie ein Startup oder ein Spin-off funktioniert und was es braucht, um exitfähig zu werden. 

Außerdem gibt es in Deutschland Initiativen, die darauf abzielen, mehr sogenannte Factory-Hubs zu schaffen, in denen Universitäten, lokale Wirtschaftsakteure und Startup-Initiativen zusammenarbeiten. Ein zentraler Baustein ist es, den klaren IP-Transfer in Unternehmen zu regeln. Zwar wird hier noch viel diskutiert – gerade weil Universitäten andere Anreizsysteme haben als Unternehmen – aber dies ist der Grundpfeiler, um weiterzukommen. Der Startup-Verband und die bestehenden Factories in Deutschland sorgen dafür, dass es durch standardisierte Prozesse und Verfahren mehr Klarheit gibt.

Laut EY Österreich hat Deutschland den Aufschwung bei Startup-Finanzierungen geschafft. Siehst du das auch so?

Tanja Emmerling: Ja und nein. Über das Jahr verteilt hat man den Eindruck, dass Gründungsinitiativen noch nicht in vollem Umfang zurückgekehrt sind. Ich hatte auch den EY-Bericht gelesen und war erstaunt, wie stark die Zahlen zum Jahresende angestiegen sind – was darauf hindeutet, dass die Gründungszahlen wieder zunehmen. 

Das liegt vermutlich vor allem daran, dass viele Gründungen aus Forschungsinstitutionen stammen, insbesondere im Biotech-Bereich, der einen starken Aufwind erlebt. Zudem gibt es regionale Förderungen, bei denen Gründungsinitiativen aus den Universitäten hervorgehen und in regionale Hubs zurückfließen. Über das Jahr hinweg war das zwar nicht immer spürbar, aber die Zahlen zum Jahresende sprechen für einen Aufwärtstrend. Dennoch sehe ich, dass noch Potenzial vorhanden ist, das weiter ausgebaut werden muss. Ich bin aber optimistisch, dass insbesondere in der zweiten Jahreshälfte ein deutlicher Anstieg zu verzeichnen sein wird.

Berlin gilt als die Startup-Hauptstadt. München gewinnt jedoch zunehmend an Bedeutung – aufgrund der starken Ausrichtung auf Deep-Tech. Wie siehst du diese Entwicklung?

Tanja Emmerling: Ich denke, dass in München vor allem die Nähe zu Industrieunternehmen eine große Rolle spielt, weil bestimmte große Player direkt vor Ort sind und die passenden Kundenprofile suchen. Außerdem hat sich das Unternehmertum in München sehr gut entwickelt. Berlin ist zwar international sehr attraktiv – unter anderem, weil hier oft günstigere Büroflächen und Mitarbeiter zu finden sind, was internationale Player anzieht –, dennoch zeigt sich in München ein konzentriertes Netzwerk mit einem anderen, sehr fokussierten Profil. Beide Städte haben ihre Stärken: In Berlin fließen, was die Größe betrifft, weiterhin viele Investoren, während München durch spezialisierte Netzwerkverbindungen und die Nähe zur Industrie besticht. Insgesamt ist Deutschland aber besonders diversifiziert – es gibt beispielsweise viele Hardware-Hubs in Aachen, spezialisierte Cluster in Leipzig oder Initiativen in NRW und im Ruhrgebiet.

Lass uns über Exits und Börsengänge sprechen. Seit 2005 hattet ihr 180 erfolgreiche Exits, darunter einige IPOs. In Europa hört man oft, dass das IPO-Fenster fehlt.

Tanja Emmerling: Wenn man sich das Sentiment in den USA anschaut, so scheint sich dort der IPO-Markt wieder zu öffnen. Für uns in Deutschland besteht die Herausforderung darin, dass es hier keinen wirklich funktionierenden IPO-Markt für Startups gibt. Es gibt zwar in den nordischen Ländern Ansätze, aber in Europa ist das IPO-Fenster für Startups bislang nicht attraktiv genug – es sei denn, man strebt direkt einen Börsengang in den USA an, was mit enormen Größenordnungen und hohen Kosten verbunden ist. Das ist ein Bereich, den wir konsequent weiterentwickeln müssen, damit auch in Europa eine Perspektive für Startups entsteht, indem der Börsen- und IPO-Markt breiter aufgestellt wird und auch kleinere Unternehmen Chancen haben.

Wie siehst du die Entwicklung bei Exits?

Tanja Emmerling: Ja, Exits finden statt, allerdings häufig in sehr spezialisierten Bereichen – zum Beispiel in der IT-Security oder ähnlichen Nischen. Diese Bereiche funktionieren nach wie vor sehr gut und erzielen solide Bewertungen. Aktuell justiert sich jedoch noch vieles, was die Marktentwicklung betrifft, und es gibt ein gewisses Zukauf-Sentiment, das sich abzeichnet.

Europa denkt wieder mehr über technologische Souveränität nach – auch wegen geopolitischer Entwicklungen wie Trump und dem Russland-Ukraine-Konflikt. Wie wirkt sich das auf den Deep-Tech-Bereich aus – auch in Hinblick auf Dual-Use-Technologien?

Tanja Emmerling: Ich denke, dass sich hier ein größerer Fokus auf Dual-Use-Technologien öffnet, um diese differenzierter zu betrachten. Es herrscht eine erhöhte Dringlichkeit, denn staatliche Institutionen setzen vermehrt auf die Digitalisierung und darauf, unabhängiger zu werden. Gleichzeitig wird die Wirtschaft gezielt gefördert, um den Innovationspfad nicht zu verlieren – es fließt mehr Geld in diese Bereiche, um die Industrie in Europa zu halten. Wie schnell und erfolgreich das umgesetzt wird, werden wir sehen. Vor allem aber hat auch der Mittelstand erkannt, dass jetzt der Moment ist, in den Innovationsbereich einzusteigen, mit Startups zusammenzuarbeiten, Kundenbeziehungen aufzubauen und spannende Cluster zu formen – etwa von Energie bis hin zu Sicherheitstechnologien.

In Europa rücken Regierungen nach rechts, und Klimaschutz ist nicht mehr überall Priorität. Wie beeinflusst das den Climate-Tech-Sektor? Hängt er stark von der Politik ab oder bleibt er wirtschaftlich trotzdem stabil?

Tanja Emmerling: Ich bin der Meinung, dass Climate-Tech aus wirtschaftlichen Gründen weiterhin Sinn macht und deshalb auch auf der Agenda bleibt – unabhängig von den politischen Schwankungen. Auch wenn die politischen Szenarien nicht ganz eindeutig sind, hat das Thema Energie nach wie vor hohe Priorität. Zudem eröffnet diese Unsicherheit auch neue alternative Ansätze, wodurch sich für Unternehmen im Climate-Tech-Bereich wieder neue Chancen ergeben.

Wie nimmst du aus Investorensicht den Deep-Tech-Markt in Österreich wahr?

Tanja Emmerling: Wir investieren etwa zu 30 Prozent im Ausland, vorwiegend innerhalb der EU. Die DACH Region ist natürlich ein sehr zentraler Baustein im Sourcing für uns.  Gerne möchten wir auch noch mehr Unternehmen aus Österreich sehen, die auf den deutschen Markt gehen möchten. 


0100 Conference DACH 2025 in Wien

Bald ist es wieder soweit: Vom 18. bis 20. Februar 2025 trifft sich die Elite der Private-Equity- und Venture-Capital-Branche in Wien zur elften Ausgabe der 0100 Conference DACH. Das Event ist einer der wichtigsten Treffpunkte für Investor:innen, Fondsmanager:innen und Branchenexpert:innen im deutschsprachigen Raum, um über aktuelle Trends und Entwicklungen in der Investmentlandschaft zu diskutieren. Auch Tanja Emmerling wird als Speakerin auf der 0100 Conference auftreten.

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag