25.09.2023

RBI zu KI: “Haben mehr als 100 Use Cases aus allen Bereichen”

Interview. Wie wird künstliche Intelligenz die Finanzbranche verändern? Was hat die Raiffeisen Bank International (RBI) in diesem Bereich geplant und wie unterscheidet die Bank bei neuen Technologien zwischen Hype und Substanz? Diese und noch weitere Fragen beantwortet Christian Wolf, Head of Strategic Partnerships & Ecosystems, im brutkasten-Gespräch.
/artikel/rbi-100-ki-use-cases
Christian Wolf: Warum Open API, Blockchain und Elevator Lab für die RBI zusammen gehören
(c) RBI: Christian Wolf, Head of Strategic Partnerships & Ecosystems
sponsored

Die Veröffentlichung von ChatGPT im vergangenen November hat die starken technologischen Fortschritte bei künstlicher Intelligenz (KI) schlagartig ins Bewusstsein der Öffentlichkeit geholt. Und auch für viele Unternehmen stellten sich rasch Fragen: Welche Folgen wird KI für die eigene Branche und möglicherweise auch das eigene Geschäftsmodell haben? Auch in der Finanzbranche gibt es Fragestellungen wie diese.

Die Raiffeisen Bank International (RBI) beschäftigt sich seit vielen Jahren systematisch mit technologischen Innovationen – beispielsweise mit Blockchain, aber eben auch mit künstlicher Intelligenz. Christian Wolf ist Head of Strategic Partnerships & Ecosystems bei der RBI. Wir haben mit ihm über die Auswirkungen von KI auf die Finanzbranche gesprochen.


brutkasten: Seit dem Erscheinen von ChatGPT erleben wir eine neuerliche KI-Euphorie. Wie lange beschäftigt sich die RBI schon mit dem Thema?

Christian Wolf: Das Thema KI ist an und für sich nichts Neues. Es begleitet uns in unterschiedlichen Ausprägungen sicherlich schon eine Dekade. Die Technologie hat sich inkrementell entwickelt, ihr wurde vor allem durch den Launch von ChatGTP nun zu großer Sichtbarkeit und einer exponentiellen Adoption verholfen. 

Wir hatten KI-Ansätze zu unterschiedlichen Zwecken bereits länger im Einsatz, zum Beispiel im sichtbarsten Element von Chatbots, die die Interaktion mit Kunden teilweise automatisieren. Anhand von Chatbots kann man auch schön die Entwicklung von KI beschreiben, von Rule-based Chatbots, die zwar eine hinterlegte Logik hatten, die ich aber noch nicht zur KI zählen würde, bis hin zu Chatbots, die sich der Large Language Models (LLMs) bedienen und dadurch  mehr Autonomie zeigen.

Es gibt aber gerade für Banken generell sehr viele Anwendungsfälle von KI, die für den Standard-User vielleicht gar nicht so ersichtlich sind und die hinter den Kulissen laufen. KI bedient wichtige Anwendungsfälle quer durch die Bank: vom Daten- und Wissensmanagement, der Risikomodellierung bis hin zur Softwareentwicklung und auch Cybersecurity sind gute Anwendungsfälle bekannt und beschrieben.

KI hat auch grossen Einfluss auf Automatisierungen und somit Effizienzsteigerungen, wo ich persönlich auch nach wie vor das größte Potenzial sehe – beispielsweise wenn es darum geht, Prozesse zu automatisieren oder große Datenmengen zu verarbeiten und strukturieren und daraus Empfehlungen abzuleiten.

Was hat ChatGPT deiner Meinung nach verändert?

Ich glaube, der große Verdienst von ChatGPT ist, dass man einen demokratischen Zugang zur Technologie geschaffen hat. Bis ChatGPT ist das Thema sehr technisch diskutiert und implementiert worden. ChatGPT hat gezeigt, dass es jetzt nicht mehr zwangsläufig notwendig ist, Techniker:in, Programmierer:in oder Informatiker:in zu sein um ein KI-Modell zu bedienen.

Man kann KI nun auch als gewöhnliche:r User:in bedienen – ohne die Technologie dahinter unbedingt verstehen zu müssen. Man kann mit ihr in sehr natürlicher Sprache kommunizieren und bekommt auch ebensolche Antworten – die Einstiegshürden sind damit so niedrig geworden, dass auch die breite Masse von Anwendern davon profitieren kann.

Wenn eine neue Technologie auftaucht oder eine bestehende Technologie starke Sprünge macht – wie evaluiert ihr in der RBI, ob das strategisch für euch eine Bedeutung hat oder nicht?

Wir gehen da agnostisch vor und machen es mit jeder Technologie so: Wir beginnen sehr frühphasig – beispielsweise beim Thema Blockchain, das ein Disruptionsversprechen in sich trägt. Bei KI wiederum hat es den Trigger-Point ChatGPT gegeben, an dem wir gesagt haben, dass wir uns das noch einmal ansehen müssen.

Aber wir durchlaufen immer denselben Prozess. Auf der einen Seite unterscheiden wir sehr bewusst zwischen Hype und Trend. Ein Hype hat großes Aufmerksamkeitspotenzial, das eventuell auch berechtigt ist, wird aber vermutlich im nächsten halben Jahr oder Jahr wieder verschwinden oder abebben. Der Trend erweist sich dagegen als nachhaltiger.

Wie ist dann euer Prozess, wenn ihr einen Trend identifiziert habt?

Bei Trends schauen wir grundsätzlich, wie die Entwicklungen technologischer Natur sind – aber auch, wie sich die zugehörigen Anwendungsfälle entwickeln. Damit haben wir einen Realitätscheck, ob die Versprechungen auch eingehalten werden.

Dann sehen wir uns an, ob diese Use Cases auf unser Kerngeschäft Einfluss haben werden – entweder, weil sie disruptiv sind oder weil sie das Geschäftsmodell einer Bank erweitern können. Ist das der Fall, fragen wir uns, ob es auch uns auch als RBI konkret beeinflussen wird. Als Universalbank haben wir ein anderes Geschäftmodell als eine Investmentbank wie zum Beispiel JP Morgan. Nicht alles, was für JP Morgan relevant ist, ist es auch für uns und umgekehrt.

Wenn wir die Fragen in dieser Abfolge aber mit Ja beantworten, gehen wir in die interne Diskussion mit unseren Fachbereichen. Da diskutieren wir die Potenziale und versuchen, gemeinsam Anwendungsfälle für uns zu definieren. Wenn man eine Liste an Use Cases hat, kann man allerdings auch zum Schluss kommen, dass manche Dinge zwar tatsächlich Problemfelder sind, aber dass man dafür nicht zwangsläufig KI braucht.

Daher prüfen wir auch, ob wir bereits Technologie im Haus haben, die das genauso gut lösen kann. Und wenn dies der Fall ist, ob wir signifikante Effizienzgewinne durch einen Technologiewechsel hätten. Denn nur dann zahlt es sich aus. 

Wenn wir aber feststellen, dass wir tatsächlich ein Problem lösen können, das wir bislang nicht lösen konnten, dann wird es interessant. In diesem Fall sehen uns die Gemeinsamkeiten dieser definierten Use Cases an und leiten Grundanwendungsfälle ab. Im KI-Bereich läuft es aktuell auf Data Extraction, Data Aggregation und Content Generation hinaus. Hinter 99 Prozent der Use Cases stecken diese Grundanwendungsfälle.

Was sind eure künftigen Pläne im Bereich KI?

Mich freut, dass wir schon seit Jahren mehrere etablierte Stellen im Haus haben, die sich mit den Aspekten der KI-Thematik auseinandersetzen. Allerdings gibt es jetzt einen gestiegenen Bedarf an einer weiterführenden Diskussion – auch durch einen gewissen Druck vom Markt her.

Daher stellen wir uns nun die Frage, wie wir das Thema noch strukturierter und systematischer angehen können. Wir sehen uns an, wie wir unsere Ressourcen noch stärker fokussieren können, um Dinge auf Schiene zu bringen. Es freut mich, dass unsere Fachbereiche schon mehr als über 100 Use Cases aus allen Bereichen erarbeitet und priorisiert haben.

Derzeit befinden wir uns in der ersten Phase der Umsetzung und Abarbeitung dieser Use Cases. Da sind einige dabei, die nach innen gerichtet sind, zumeist Effizienztreiber, es sind aber auch einige dabei, die gegenüber den Kund:innen Wirkung entfalten werden.

Wenn es um den Einsatz von KI im Finanzbereich geht – siehst du persönlich hier Unterschiede zu anderen Branchen?

Es gibt im Finanzbereich durchaus Besonderheiten, die hauptsächlich auf regulatorische Bedürfnisse zurückzuführen sind. Und wir sehen uns nach wie vor einer grundsätzlich heterogenen Rechtsprechung beispielsweise im Vergleich der EU mit den USA konfrontiert. Im hypothetischen Anwendungsfall einer KI-getriebenen Bonitätseinstufung des Kunden, stellen uns viele derzeitige Standard-KI-Modelle vor eine Herausforderung.

Wir müssen sicherstellen, dass die Bonität jede:r Kund:in, der/die zum Beispiel einen Kredit bei uns möchte, nach den gleichen Bedingungen und Regeln beurteilt wird. Da darf niemand benachteiligt oder bevorzugt werden. Wir müssen dies auch transparent gegenüber dem Regulator nachweisen können, wie wir zu einer Einschätzung kommen. Das muss also von vorne bis hinten dokumentiert werden. Und wir wollen es auch gegenüber der/dem Kund:in beschreiben können.

Es gibt zwar mittlerweile am Markt einzelne LLM-Modelle, die durchaus einen solchen notwendigen Audit-Trail abbilden können, aber bei den meisten großen Standardmodellen funktioniert es simplifiziert so: Man gibt Daten ein, die durchlaufen eine große Blackbox und am Schluss kommt dann ein Ergebnis heraus. Der Prozess der Ergebnisfindung ist jedoch nicht oder nur teilweise nachvollziehbar und daher weder dokumentier- noch erklärbar. Das genügt aber dem geschilderten Anspruch nicht. Das sehe ich schon eine Herausforderung.

In dem von dir geschilderten Fall stehen regulatorische Vorgaben dem Einsatz von KI entgegen. Siehst du – ganz generell – mögliche Anwendungsfälle, die durchaus sinnvoll wären, aber regulatorisch nicht möglich sind?

Das ist nur meine persönliche Meinung, aber mir fällt da schon ein Anwendungsfall ein: das Thema Robo Advisory, also im Veranlagungsgeschäft. Da könnte man KI durchaus heranziehen und auf Basis eines bestehenden Kunden-Portfolios Anlageempfehlungen generieren. Das ist aktuell zwar rechtlich nicht gänzlich unmöglich, hat aber seine Limitationen, weil wir uns hier im Beratungsgeschäft bewegen und damit Vorschriften wie beispielweise der MiFID (Markets in Financial Instruments Directive, EU-Richtlinie, Anm. d. Red.) unterliegen.

Damit sind wir wieder beim selben Thema: Als Bank müssen wir nachweisen, wie wir zu einer Empfehlung kommen, weil wir letztlich auch dafür haften. Das ist für mich ein Beispiel für etwas, das großes Potenzial hätte, wo aber vor der Anwendung noch einiges zu überlegen ist.

Werden Banken deiner Einschätzung nach auch eigene KI-Modelle trainieren? Oder ist es eher so, dass die LLMs von OpenAI oder Google eben so gut und umfangreich sind, dass dies keinen Sinn ergibt?

Ich glaube, dass gerade im Bankbereich durchaus Eigenentwicklungen entstehen werden. Das liegt hauptsächlich in der Datenverarbeitung begründet. Einerseits kann es rechtliche Vorschriften geben, die es etwa nicht erlauben, dass Daten ein Land verlassen. Andererseits haben beispielsweise auch wir als Bank sehr wohl viele Daten, die nicht in ein öffentliches Modell einspeisen wollen – etwa im Bereich von Risikomodellen oder im Vertragswesen. Da gibt es ein grundeigenes Interesse, dass die Kontrolle über das Modell und die Daten innerhalb der Bank bleiben.

Das heißt aber nicht zwangsweise, dass man alles selbst von Grund auf entwickeln muss. Bei Microsoft Office kann ich ja auch wählen, ob ich etwas in der „public“ Microsoft Cloud verwenden möchte oder es beispielsweise on Premise in einer eigenen von mir kontrollierten Cloudumgebung laufen lasse. Ähnliches werden wir wohl auch bei KI-Modellen sehen.

Kommen wir von der allgemeinen Ebene noch einmal zurück zur RBI. Wir haben schon über eure geplanten Projekte im KI-Bereich gesprochen. Seid ihr hier grundsätzlich auch für Kooperationen mit Startups offen?

Ja, wir laden alle ein, sich mit uns in Verbindung zu setzen – sowohl größere Unternehmen als auch Startups, die sich mit dem Thema auseinandersetzen. Wir sind laufend auf der Suche nach Kooperationspartnern. Unser Ansatz ist dabei, dass wir, wenn es bereits eine funktionierende Lösung am Markt gibt, sie uns ansehen und eher integrieren, als selbst zu bauen.


Aus dem Archiv:

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

RBI zu KI: “Haben mehr als 100 Use Cases aus allen Bereichen”

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

RBI zu KI: “Haben mehr als 100 Use Cases aus allen Bereichen”

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

RBI zu KI: “Haben mehr als 100 Use Cases aus allen Bereichen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

RBI zu KI: “Haben mehr als 100 Use Cases aus allen Bereichen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

RBI zu KI: “Haben mehr als 100 Use Cases aus allen Bereichen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

RBI zu KI: “Haben mehr als 100 Use Cases aus allen Bereichen”

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

RBI zu KI: “Haben mehr als 100 Use Cases aus allen Bereichen”

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

RBI zu KI: “Haben mehr als 100 Use Cases aus allen Bereichen”

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

RBI zu KI: “Haben mehr als 100 Use Cases aus allen Bereichen”