16.05.2018

RBI-Digitalisierungschef: „Wollen eine Skalierungsplattform für Startups sein“

Interview. Im Gespräch mit dem Brutkasten erklärt Hannes Cizek, Head of Group Digital Banking der Raiffeisen Bank International (RBI), was er im heimischen Fintech-Beirat erreichen will, wie die RBI mit der PSD2-Regulierung umgeht und was er sich vom zweiten Durchgang des Elevator Lab erwartet.
/artikel/interview-hannes-cizek-rbi
Hannes Cizek über das Elevator Lab, den Fintech-Beirat und die PSD2-Regulierung
(c) Haris Dervisevic / Der Brutkasten: Hannes Cizek
sponsored

Die Raiffeisen Bank International (RBI) setzt in der Digitalisierung auf mehrere Schienen. Zwei Programme stechen dabei heraus: Innovationen von Startups kommen über den Accelerator Elevator Lab, der dieses Jahr in die zweite Runde geht. Im Intrapreneurship-Programm Innovation Garden wird mit den Innovations-Ideen der rund 50.000 Mitarbeiter der RBI-Gruppe gearbeitet. Bei beiden Programmen steht die Einbindung der betroffenen Abteilungen und die Zusammenarbeit zwischen den Netzwerk-Banken im gesamten CEE-Raum im Zentrum. Die Fäden laufen dabei bei Hannes Cizek, Head of Group Digital Banking, zusammen. Im Interview spricht er über seine Tätigkeit im vom Finanzministerium initiierten Fintech-Beirat, über Herausforderungen durch die PSD2-Regulierung und natürlich über Elevator Lab und Innovation Garden.

⇒ The interview in english


Du sitzt als einer der Vertreter im Fintech-Beirat, der vom Finanzministerium initiiert wurde. Da bist du neben verschiedenen Playern aus dem Bereich, auch Startup-Gründern. Was will eine Großbank wie die RBI dort erreichen?

Das Ziel des Fintech-Beirats, ist die Vernetzung zwischen dem Gesetzgeber und den Industrie-Playern. Es geht darum, den Austausch zu verstärken und konkrete Themen anzugehen. Dazu gibt es das Vorbild des deutschen Fintech-Beirats, den es seit zwei Jahren gibt und der sehr gut funktioniert. Ein wichtiger Treiber war dabei sicher die Marktposition der RBI in Österreich und in Zentral- und Osteuropa (CEE), aber vor allem war auch unsere starke Aktivität im Corporate-Startup-Engagement.

Im Beirat sind Vertreter der traditionellen Banken und Versicherungen, es sind Fintech- und Venture Capital-Vertreter dabei und auch Aufsichtsbehörden und Gesetzgeber – es ist eine sehr bunte Runde. Wir erhoffen uns vom Beirat, dass wir ein Gremium haben, in dem wir Themen, die für uns relevant sind, gut positionieren und diskutieren können und dass die Geschwindigkeit ein bisschen erhöht wird. Wir werden jetzt über Rahmenwerke diskutieren, die für Fintechs und Banken wichtig sind, um neue Dienstleistungen und Produkte für sich oder gemeinsam zu testen. Ziel ist auch, dass man nicht mehr viele bilaterale Termine braucht, sondern ein Gremium hat, in dem man sich die Zeit nimmt und ein Thema auf operativer Ebene ausdiskutieren kann. Umgekehrt kann dann der Gesetzgeber für sich daraus ableiten, was er daraus macht, was für ihn politisch relevant ist und was er priorisieren will.

Du hast jetzt schon die Zusammenarbeit mit Startups angesprochen. Was wären ganz konkrete Vorschläge, die das Leben und die Zusammenarbeit mit Startups, unter anderem im Rahmen des Elevator Labs, für euch erleichtern?

Unabhängig vom Fintech-Beirat, in dem die Prioritäten gemeinsam gesetzt und bearbeitet werden, ist für uns als RBI generell das Thema „Regulatory Sandboxes“ relevant. Das soll ja Banken und Fintechs ermöglichen, Dienstleistungen und Produkte in einem Umfeld, das eine niedrigere Eintrittsbarriere hat, zu testen, ohne gleich die vollumfänglichen rechtlichen und regulatorischen Vorgaben erfüllen zu müssen.

Was gäbe es für Beispiele? Was würdet ihr in der „Sandbox“ testen?

Das kann auch etwas ganz Banales sein. Es kann einfach um eine neue Dienstleistung für bestehende Kunden gehen. Ich will diese aber erstmal in einer kleinen Anwendergruppe über einen begrenzten Zeitraum testen, wie es in Technologieunternehmen üblich ist. Dann stellt sich die Frage: Muss ich für diese kleine Anwendergruppe bereits alle Vorgaben erfüllen, oder schafft man so eine regulatorische Sandkiste? In Singapur oder Großbritannien gibt es das Modell schon seit einigen Jahren. Das zweite große Thema, für uns als grenzüberschreitend tätige Bank, ist die technische Standardisierung von Schnittstellen und Datenformaten. Ein wichtiger Punkt ist dabei für uns etwa die PSD2-Regulierung.

Was wird die PSD2-Regulierung für eine Auswirkung für euch haben? Was erwartet ihr im Hinblick auf eure Konkurrenz?

Bis zu einem gewissen Grad ist das noch ein Kaffeesudlesen. Was die tatsächlichen Auswirkungen auf den Markt sein werden, weiß niemand. Die PSD2, die formal Anfang des Jahres in Kraft getreten ist und bis Mitte 2019 im nationalen Recht umgesetzt werden muss, ist am Ende eine Marktliberalisierung und eine stärkere Öffnung des Finanzdienstleistungssektors für Dritte. Das heißt, wir müssen zunächst vor allem Schnittstellen für Zahlungsverkehrsbereich entwickeln und diese für Dritte öffnen. Das eröffnet Potential für beide Seiten, denn  ich kann auch mein Produkt- und Serviceangebot an meine Kunden um das Angebot Dritter erweitern. Stichwort: Open Banking.

Hannes Cizek about the Elevator Lab and PSD2
(c) Haris Dervisevic / Der Brutkasten: Hannes Cizek

„Wir müssen noch stärker an das herankommen, was Kunden aus anderen Branchen gewohnt sind.“

Umgekehrt gibt es die Herausforderung, dass diese Drittanbieter den Anspruch haben, selbst über Open Banking-Plattformen die Schnittstelle zum Kunden hin zu werden, und den Banken damit die Rolle eines Produktdienstleisters zukommen würde. Wir glauben, dass die Banken immer noch eine starke Value Proposition für den Kunden haben, vor allem was Sicherheit und Vertrauen betrifft. Das heißt für uns, dass wir uns vor allem in den Bereichen Design und User Experience weiter verbessern müssen. Wir müssen noch stärker an das herankommen, was Kunden aus anderen Branchen gewohnt sind, damit die Gefahr, die Kundenschnittstelle im digitalen Kanal zu verlieren, nicht besteht.

Kann man also sagen, dass die Herausforderung stark auf der technischen Seite besteht und andererseits auf horizontaler Ebene stärker mit Konkurrenz zu rechnen ist?

Das ist vollkommen richtig. Das Ziel von Plattformen ist ja immer, beide Seiten zu bedienen, und genau in diese Schnittstelle hineinzugehen. Da haben wir in den letzten zehn Jahren ein paar sehr prominente und gut funktionierende Beispiele auch auf globaler Ebene gesehen, bei denen wir vorher nicht unbedingt einen Kundenneed gesehen hätten. Wir sind vorher auch Taxi gefahren, wir haben vorher auch Hotels gebucht und doch hat sich das Bild in relativ kurzer Zeit in vielen Regionen dramatisch verändert. Das muss man einfach ernst nehmen. Das muss man für sich analysieren und sich fragen: „Was kann das für meine Industrie heißen?“.

Das ist der eine Ast. Der andere Ast ist die Umsetzung. Die trägt noch viele Herausforderungen in sich. Viele Details sind da noch nicht klar und da kommen wir wieder zum Fintech-Beirat. Hier wollen wir auch Themen einbringen, die wahrscheinlich niemand sexy findet. Da geht es zum Beispiel darum, wer das operative Risiko trägt, wenn man seine Schnittstelle mit Kundendaten für Dritte öffnet – auch wenn der Kunde zugestimmt hat. Welche Voraussetzungen muss dieser sogenannte Third Party Provider (TTP) erfüllen und wer überwacht deren Einhaltung? Wer erfüllt die vielen anderen bankenregulatorischen Vorgaben zukünftig? Und wie standardisiert können diese technischen Schnittstellen sein?

Im Moment ist es leider so, dass im Rahmen der PSD2 unterschiedliche nationale Standards entstehen. Das ist komplett entgegen des ursprünglichen politischen Ziels, nämlich der Schaffung eines Digital Single Markets für Finanzdienstleistungen in der EU. Die kommenden Monate werden also eine ganz spannende Phase für uns alle.

+++ RBI Elevator Lab: Neue Startup-Suchfelder im zweiten Batch +++

Wie ist das mit den nationalen Standards für euch als multinationale Bank? Versucht ihr zumindest intern ein einheitliches System zu erarbeiten?

Wir bemühen uns einen gruppenweiten API-Standard zu entwickeln, müssen aber natürlich auf die nationalen Gegebenheiten zusätzlich Rücksicht nehmen. Unsere Erwartungshaltung war ursprünglich, dass die PSD2 stärkere Vorgaben liefert. Zumindest, was die technische Umsetzung, die Datenformate, die technische Schnittstelle und die Frage, wie die API gebaut werden muss, anbelangt. Da die PSD2 aber eine Richtlinie ist und keine Verordnung, obliegt die Detailumsetzung der nationalen Gesetzgebung. Bei uns wurde diese heuer im Zahlungsdienstleistergesetz umgesetzt. In Tschechien, in der Slowakei, in Ungarn, in Rumänien und in Bulgarien gibt es entsprechend jeweils eigene Gesetze.

Neben Österreich sind sieben unserer vierzehn CEE-Märkte EU-Mitgliedsländer. Da versuchen wir natürlich schon, in den Gesprächen im Fintech-Beirat, aber auch mit den Stakeholdern in unseren „Host-Countries“, darauf hinzuweisen, dass unterschiedliche nationale Standards für grenzüberschreitend tätige Banken eine zusätzliche Komplexität schaffen würden. Aber die PSD2 betrifft nicht nur Banken, sondern auch Fintechs, die ihr Business skalieren müssen und für die eine technische Vereinheitlichung von Schnittstellen ebenfalls relevant ist. Das Thema ist also weitaus komplexer als etwa die „Passporting-Regel“, die es ermöglicht mit der Banklizenz in einem EU-Mitgliedsstaat auch in einem anderen Mitgliedsland tätig werden zu können.

Bleiben wir beim Stichwort CEE. Die Ausschreibung zum zweiten Durchgang des Elevator Labs hat kürzlich begonnen. Ihr führt in acht Ländern, in denen ihr eine Tochterbank habt, eigene regionale Challenges durch. Was ist euer Anreiz, besonders Fintechs aus dem CEE-Bereich hereinzuholen?

Zunächst einmal sehen wir die CEE-Region, neben Österreich, als unseren Heimatmarkt. Wir sind seit bald dreißig Jahren in der Region und haben dort ein einzigartiges Netzwerk und haben Zugang zu den lokalen Ökosystemen. Die Marke Raiffeisen ist in der gesamten CEE-Region extrem bekannt. Das alles wollen wir nutzen. Zweitens  gibt es in der CEE-Region sehr viele Talente, da hier traditionell ein Ausbildungsschwerpunkt im technologischen, mathematischen und analytischen Bereich gelegt wird. Immer mehr junge Menschen möchten in ihren Heimatländern bleiben und sehen uns hier als attraktiven Arbeitgeber mit enormem Entwicklungspotential.

„Wir haben von Anfang an festgelegt, dass das Elevator Lab für uns kein PR-Gag ist.“

Wie hat die Corporate Startup Collaboration im ersten Durchgang des Elevator Labs funktioniert bzw. wie funktioniert sie im Moment?

Für mich war der erste Durchgang des Elevator Labs ein unfassbarer Erfolg. Wir haben es geschafft, fünf Pilotprojekte gleichzeitig in vier Monaten ins Ziel zu bekommen. Das zeigt, dass wir eine gute Auswahl getroffen haben. Auf der anderen Seite zeigt das, dass die Kooperationspartner und die Organisation dazu in der Lage waren. Das war für mich das Wichtigste. Wir haben von Anfang an festgelegt, dass das Elevator Lab für uns kein PR-Gag ist, nur um sagen zu können: “Auch die RBI kooperiert mit Startups”.

Wir wollen für beide Seiten daraus einen Mehrwert generieren, unser Produkt- und Serviceangebot verbessern und gleichzeitig eine Skalierungsplattform sein. Das bedeutet natürlich eine ungeheure Anstrengung. Für ein Startup ist das ein normaler Zyklus, sich in vier Monaten in dem Maße weiterzuentwickeln. Für einen internationalen Konzern sind vier Monate eine Dimension, in der man sich vielleicht nicht so viel vornimmt. So gesehen war die erste Runde des Elevator Lab ein riesiger Erfolg  für uns.

Wie breit wart ihr für diese Kooperation innerhalb der Organisation aufgestellt? Wie habt ihr euch darauf vorbereitet?

Wir haben ein Kernteam, rund um Max Schausberger, welches das Elevator Lab operativ begleitet und umsetzt. Es war uns wichtig, diesen Teil nicht auszulagern, denn wenn du maximalen Impact auf die Organisation haben willst, musst du so ein Team im Haus haben. Es ist wichtig, im Haus und innerhalb der Gruppe die richtigen Leute, Fach- und Geschäftsbereiche zu kennen und auch zu verstehen, wie die Organisation tickt.

Wir hatten für die erste Phase zusätzlich etwa 50 interne aber auch ausgewählte externe Mentoren. Die internen Mentoren sind Mitarbeiter, die nicht aus dem Kernteam selbst kommen, sondern aus den verschiedenen Fachbereichen, die aber mit den Startups an den Projekten gearbeitet haben. Immer gab es einen sogenannten Lead Mentor, der fachlich der „Single Point of Contact“ für das Startup war. Dieser hat natürlich die Hauptlast der operativen Arbeit getragen. Es war ziemlich cool, zu sehen wie wir hier Kolleginnen und Kollegen aus den unterschiedlichsten Fachbereichen für das Thema gewinnen und letztlich auch begeistern konnten. Die Kolleginnen und Kollegen haben für Elevator Lab gebrannt und zusätzlich zu ihrem normalen Job daran gearbeitet. Manche wurden auch bis zu einem gewissen Grad freigestellt, das war auch wichtig, um hier die Prototypen wirklich voranzubringen.

Video-Interview mit Elevator Lab-Program Lead Max Schausberger:

Es wurde also auch innerhalb der Abteilungen als Projekt angenommen?

Eindeutig. Das hat niemand so nebenbei als Hobby betrieben. Wir haben schon in der Auswahl der Startups die Geschäftsbereiche ganz stark eingebunden. Wir wussten daher bei unseren fünf teilnehmenden Startups, dass hier ein ganz klarer Business oder Customer Need da ist, den wir bedienen wollen. Dementsprechend stark war das Commitment der Fachbereiche. Elevator Lab wurde ihnen nicht aufoktroyiert, sondern sie haben genau in diesen Bereichen Lösung gesucht. Ich glaube, das war und ist für das gesamte Projekt kriegsentscheidend.

Ihr habt auch ein zweites Programm, den „Innovation Garden“. Das ist ein Intrapreneurship-Programm, in dem ihr Ideen, Vorschläge und Konzepte von innerhalb der Organisation holt. Kannst du darüber etwas erzählen?

Nachdem wir uns letztes Jahr sehr stark darauf konzentriert haben, die Themen Elevator Lab und Startup Engagement zu starten, wollten wir nun auch das Innovationspotential unserer mehr als 50.000 Mitarbeiter heben. Wir glauben, dass man das am besten tun kann, indem man Arbeitsmethoden, Projekte und die Art und Weise zu arbeiten, wie wir es im Elevator Lab und in der Startup-Kooperation kennengelernt haben, auf die interne Organisation überträgt.  Im Rahmen unseres Intrapreneurship Programms Innovation Garden gibt es auch eine Plattform, auf der Ideen eingereicht und dann nach ähnlichen Kriterien wie im Elevator Lab bewertet werden. Auch hier lauten die Kernfragen: Gibt es einen klaren Customer und Business Need und können die Ideen diese Herausforderungen lösen?

Es werden auch grenzüberschreitende und cross-funktionale Teams sehr hoch bewertet. Wir wollen skalierbare Lösungen für die Gruppe bauen und nicht für einen einzelnen Markt. Dann werden in kurzen Phasen von zwölf Wochen Prototypen auf den Boden gebracht. Bis Jahresende sind zwei Durchläufe mit insgesamt acht Prototypen geplant. Wir haben das Format im Vorjahr mit drei Piloten getestet und waren von der internen Innovationskraft unserer Teams begeistert. Ein cooles Programm also, von dem ich mir heuer extrem viel erwarte.

Der erste Durchgang läuft gerade. Wie viele Bewerber gibt es bereits?

Aktuell sind knapp 300 Ideen eingereicht worden und es haben sich etwa 2.100 Kolleginnen und Kollegen auf der Plattform angemeldet. Das Team rund um Silvia Handler hat sehr viel interne Kommunikation betrieben, um das zu bewerben und hinauszutragen. Ich glaube, dass da extrem viel drin ist. Wir haben so viele gute Leute in der Organisation. Die brauchen einfach die Chance, dass sie in einem begrenzten Setup mit methodischer Unterstützung und ausreichend Ressourcen und Budget an so einem Projekt konzentriert arbeiten können. Dafür haben wir natürlich gesorgt. Es ist die gleiche Logik wie im Elevator Lab: Wir machen zuerst die Validierung der Idee und nutzen dazu eine extrem schnelle und frühe Endkundeneinbindung, bevor überhaupt ein Prototyp gebaut wird. Minimum Viable Products (MVP) gibt es nur für jene Ideen, die es nach den drei Monaten Prototyp-Phase in die letzte Auswahl schaffen.

Du hast vorhin von gruppenweiten Lösungen gesprochen. Wenn aus einer bestimmten Tochterbank ein einzelner Painpoint kommt, der dort als groß wahrgenommen wird, aber woanders nicht, ist das dann trotzdem relevant?

Wenn das ein Painpoint ist, der nur in dieser einzelnen Organisation besteht und in allen anderen nicht, dann würde das im Umkehrschluss bedeuten, dass in anderen Töchtern bereits eine Lösung da ist, die funktioniert. Auch das ist ein kleines Nebenziel von Innovation Garden, dass wir hier für ein wenig mehr Transparenz, Know-How-Transfer und Austausch innerhalb der Gruppe sorgen.

(c) Haris Dervisevic / Der Brutkasten

„Ihr werdet in den vier Monaten eine Riesenkurve mit uns machen.“

Zuletzt zurück zum Elevator Lab. Hast du einen persönlichen Aufruf an die potentiellen Bewerber?

Die RBI ist in der CEE-Region ein ehrlicher und offener Partner, der auf der Geschäftsseite nach Kooperationen sucht. Ihr seht auf elevator-lab.com welche Startups im Vorjahr teilgenommen haben. Schreibt sie an und fragt bei ihnen nach. Ich glaube, dass sie das gleiche Feedback geben werden. Wir haben das beim ersten Durchgang wirklich gelebt. Es ist keine “schiefe Beziehung”, sondern eine Partnerschaft auf Augenhöhe. Und auch aus methodischer Sicht und von dem Input, den wir liefern können, ist Elevator Lab – so glaube ich – ein richtig spannendes Accelerator Programm. Was ich also potentiellen Bewerbern mitgeben will: Das Programm ist gut strukturiert, es wird euch vom Zeitbudget her nicht überfordern, aber es wird sehr viel Input für eure Geschäftsidee liefern und ihr werdet in den vier Monaten eine Riesenkurve mit uns machen.

⇒ Zur offiziellen Page des Elevator Lab

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag