17.02.2023

ChatGPT: Diese Fragen müssen sich Unternehmen vor dem Einsatz stellen

Gastbeitrag. Lohnt es sich für Unternehmen, den auf künstlicher Intelligenz basierenden Chatbot ChatGPT einzusetzen? Dazu muss man erst ein paar grundlegende Fragen klären, argumentiert Ana Simic in diesem brutkasten-Beitrag.
/artikel/chatgpt-fuer-unternehmen
Ana Simic
Foto: Studio F - Yvonne Fetz / Ascannio - stock.adobe.com (Hintergrund)

Die aktuelle Debatte rund um ChatGPT dreht sich häufig um die Schule oder die Erstellung von Texten mit dieser mächtigen Lösung, die auf künstlicher Intelligenz (KI) basiert. Aber schon bald wird sich uns allen die Frage stellen: Soll ich als Unternehmen auch in ChatGPT oder ähnliche Lösungen investieren? Und wenn ja wieviel? Dabei gilt es sowohl unternehmerische Aspekte zu berücksichtigen, technische Fragen zu beantworten und sich auch ein paar Grundsatzfragen zum Einsatz von AI im unternehmerischen Umfeld stellen.

Business Aspekte

Was ist mein Use Case mit ChatGPT?

Wenn ich beispielsweise Journalistin bin und am Tag drei statt einem Artikel recherchieren und schreiben kann, weil mich die Maschine dabei unterstützt, und es für diese zusätzlichen Artikel tatsächlich einen Markt gibt, dann bin ich effizienter und effektiver.

Wenn ich im Kundenkontakt stehe und mich besser auf meine Termine vorbereiten kann, wird mein Kunde zufriedener. In jedem Fall muss der Anwendungsfall einen klaren und ausformulierten Wert haben. Und diese sollte in Summe die Kosten der Nutzung übersteigen.

Kann ich den Use Case wirklich besser mit dem Tool nutzen?

Was auf den ersten Blick beeindruckend aussieht, ist auf den Zweiten vielleicht weniger interessant. Wir schon wissen, die Maschine ist sehr gut im Vortäuschen ihrer Exzellenz. Daher sollte man eigene Use Cases gut abtesten.

Markt und Differenzierung

Gibt es Aspekte, mit denen ich mich vom Mitbewerb abheben kann und werden es auch meine Kunden schätzen? Innovation kann einen Mehrwert bieten.

Mitarbeiter:innen und Innovationsgeist

Werden meine Mitarbeiter:innen mehr Spaß an ihrer Arbeit haben und deshalb produktiver und kreativer sein und müssen weniger Routinetätigkeiten machen? Werde ich dadurch zu einem attraktiveren Arbeitgeber?

Technische Aspekte

• Wie sehen meine aktuelle Datenstruktur und Infrastruktur aus? Kann ich es gut integrieren?
• Anforderungen an Datenplattformen und Hardware werden mit der erhöhten Nutzung auch steigen, und damit weitere Kosten an sich ziehen.

Qualität, Ethik, Risken und einiges mehr

• Vertrauen ist gut, aber Kontrolle ist im Fall von künstlicher Intelligenz besser. Die sogenannte Data Governance wird immens wichtig, um sicher zu gehen, dass sich jemand in der Organisation um die Daten und ihre Qualität kümmert, und sicherstellt, dass alle ethischen Aspekte beim Input und Output berücksichtigt sind.
• Wie sind also meine Abläufe organisiert, damit es wirklich funktioniert und einen Mehrwert liefert?
• Mit der Qualität geht auch die Frage nach der Erklärbarkeit des Ergebnisses einher. Mittlerweile gibt es gute Tools für Explainable AI (XAI), die jedem Modell angehängt werden können, um sie für Menschen erklärbar zu machen. Was waren die wichtigsten Treiber, also was hat den größten Einfluss auf das Ergebnis?
• Es ist noch nicht klar, wie die rechtliche Frage des geistigen Eigentums der Trainingsdaten geklärt wird und wie sich das auf die Kosten auswirken wird. Sicher ist man nur wenn man die Herkunft der Daten erklären und nachweisen kann, dass man sie verarbeiten darf.

Was passiert in den nächsten Jahren?

“Geht es denn jetzt mit dem Fortschritt immer so weiter, und müssen wir wirklich nicht mehr selbst denken”? Das ist eher eine Frage unserer Erwartungshaltung an die Weiterentwicklung als eine technische Frage. Seit der Einführung des iPhones haben wir gelernt, dass es jedes Jahr neue Features gibt – und die Erwartung an die neue KI liegt nun bei vielen Menschen ähnlich hoch.

Wenn man sich allerdings ansieht, wie sich Machine-Learnung- und Natural-Languague-Processing-Modelle in den vergangenen zehn Jahren entwickelt haben, sieht man, dass die Fortschritte eher wellenartig waren: Lange Zeit scheinen sie zu stagnieren, dann auf einmal gibt es einen Sprung nach vorne, um wieder eine Zeitlang zu stagnieren.

Das hängt mit den verfügbaren Daten zusammen, mit denen die Modelle trainiert werden können. Wenn die Daten für das Training in großer Menge verfügbar und gut klassifiziert sind, kann ein neues mächtiges Modell trainiert werden – und wir erleben es als einen Riesensprung und Fortschritt. Wenn die Daten jedoch schwer zu bekommen sind, dann dauert es sehr lange, bis wir den Fortschritt erleben.

Man kann also nicht die Sprünge, die bei anderen Datenmodellen erzielt worden sind, einfach auf andere Daten und Anwendungsfelder übertragen, weil es immer zuerst um die Daten geht, mit denen man das Modell trainieren muss. Dann erst kommen die Erfolge.

ChatGPT wiederrum wird besser werden, weil er schon gut, wenn auch nicht komplett, trainiert ist. Jedoch stellt sich auch hier die Frage: Was passiert, wenn ChatGPT alle Bücher und alle Texte der Welt gelesen hat? Woher kommen dann weitere Trainingsdaten? Und wie nutzen wir es dann, wenn alle Nutzer auf das gleiche Modell und die gleichen Daten zurückgreifen? Hat man dann immer noch die gleichen Vorteile?

Damit wären wir wieder bei den ersten Grundsatzfragen der Use Cases, technischer Aspekte und ethischer Bewertung. Wenn diese Fragen eindeutig und positiv beantwortet werden können, dann wird die (zukünftige) Standardisierung der AI kein Nachteil für ein einzelnes Unternehmen sein. Letztendes verwenden wir auf der ganzen Welt viele anderen technischen Standards, die in der Geschichte der Menschheit zu vielen Vorteilen für einzelne Unternehmen geführt haben.


Zur Autorin

Ana Simic ist Österreich-Geschäftsführerin der finnisch-deutschen Data & AI Beratung DAIN Studios. Die erfahrene Digitalisierungs- und Daten-Expertin setzt auf wertorientierte KI-Strategien und Machine-Learning-Lösungen für alle Branchen, und hilft Führungskräften und Experten, die KI zu verstehen und anzuwenden.

Deine ungelesenen Artikel:
23.12.2024

KI in Gesundheit, Bildung und öffentlichem Dienst: „Chancen nutzen, Risiken minimieren”

Nachlese. Was kann Künstliche Intelligenz in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten? Welche Chancen und Risiken bringt Künstliche Intelligenz mit sich? Wie lässt sich ihr Potenzial verantwortungsvoll nutzen, ohne ethische Leitlinien zu überschreiten? Diese und viele weitere Fragen stehen im Fokus der zweiten Folge von „No Hype KI“.
/artikel/no-hype-ki-folge-2
23.12.2024

KI in Gesundheit, Bildung und öffentlichem Dienst: „Chancen nutzen, Risiken minimieren”

Nachlese. Was kann Künstliche Intelligenz in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten? Welche Chancen und Risiken bringt Künstliche Intelligenz mit sich? Wie lässt sich ihr Potenzial verantwortungsvoll nutzen, ohne ethische Leitlinien zu überschreiten? Diese und viele weitere Fragen stehen im Fokus der zweiten Folge von „No Hype KI“.
/artikel/no-hype-ki-folge-2
Diskussionsrunde der Folge 2: Harald Herzog, Moritz Mitterer, Carina Zehetmaier, Bernd Konnerth, Markus Fallenböck (c) brutkasten

„No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.


Gut zwei Jahre ist es her, dass ChatGPT einen Hype rund um generative KI-Modelle auslöste. Doch es stellen sich auch viele kritische Fragen beim Einsatz von KI – besonders in sensiblen Bereichen. Klar ist: Künstliche Intelligenz bietet viele Vorteile und vereinfacht komplexe Prozesse. Gleichzeitig wirft sie jedoch auch Herausforderungen und Ängste auf, mit denen man sich kritisch auseinandersetzen muss.

Was KI in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten kann, diskutierten in der zweiten Folge „No Hype KI”:

  • Bernd Konnerth (Microsoft Österreich | Public Sector Lead)
  • Carina Zehetmaier (Women in AI Austria | Präsidentin)
  • Harald Herzog (Österreichische Gesundheitskasse | Leiter Digitalisierung und Innovation)
  • Moritz Mitterer (ITSV | Aufsichtsratsvorsitzender)
  • Markus Fallenböck (Universität Graz | Vizerektor für Personal und Digitalisierung).
Du willst bei "No Hype KI" am Laufenden bleiben?

Trag dich hier ein und du bekommst jede Folge direkt in die Inbox!

Menschenzentrierter Ansatz im Mittelpunkt

Künstliche Intelligenz ist schon längst Teil unseres Alltags – ob bewusst oder unbewusst. Und obwohl KI bereits in vielen Lebensbereichen der Österreicher:innen präsent ist, bleibt die Skepsis bei vielen groß. Laut Carina Zehetmaier ist es daher ein besonders wichtiger Faktor, dass man jeder einzelnen Person KI näher bringt, sodass mehr Vertrauen in die Technologie entsteht: „Derzeit gibt es noch viele Ängste rund um KI. Aber es gibt auch noch gewisse Schwachstellen wie zum Beispiel das Halluzinieren, oder auch Vorurteile, die in den Systemen drinnen sind und widergespiegelt werden können. Es ist relevant, dass man sich hier von Anfang an mit den kritischen Fragenstellungen auseinandersetzt“.

Hierbei müsse an vorderster Stelle die öffentliche Hand hohe Standards setzen – vor allem aus menschenrechtlicher Sicht. Zehetmaier befürwortet in diesem Zusammenhang den AI Act, der klare gesetzliche Rahmenbedingungen schafft. „Die öffentliche Hand ist der direkte Adressat der Grund- und Menschenrechte“, sagt sie.

Ein weiterer wichtiger Punkt von Zehetmaier ist die Notwendigkeit, marginalisierte Gruppen nicht zu übersehen. Man müsse sich bemühen, geschlechtsspezifische und andere Vorurteile in Datensätzen zu vermeiden. „Wir wissen auch, dass Automatisierung den Gender-Pay-Gap öffnet anstatt schließt, das heißt, da müssen wir aktiv und gezielt gegensteuern“.

Verantwortungsvolle KI bedeute, aktiv an den Daten und Algorithmen zu arbeiten. Nur so könne sichergestellt werden, dass KI-Anwendungen nicht nur technologisch effizient, sondern auch ethisch und gesellschaftlich verantwortungsvoll gestaltet werden.

Responsible AI: Inklusivität, Fairness, Datenschutz

Dass die Anwendung von generativer KI nicht bloß Kosten senken soll, sondern den Menschen Nutzen bringen muss, ist auch für Bernd Konnerth von Microsoft klar. „Wir setzen auf Responsible-AI-Standards, bei denen es um Inklusivität, Fairness, Datenschutz und all diese Themen geht. Das sind Leitplanken in unserer Produktentwicklung“, sagt der Public Sector Lead von Microsoft Österreich.

Von der Unternehmenstransformation bis hin zum öffentlichen Dienst sei ein breites Umschulungsprogramm notwendig, um Ängste abzubauen: Es sei wichtig, „Umgebungen zu schaffen, die es Mitarbeiterinnen und Mitarbeiter möglich machen, mit der Technologie zu interagieren, um den Berührungsängsten entgegen zu wirken”.

Universität Graz startete UniGPT für Mitarbeitende

Was Bildung angeht, betont Markus Fallenböck von der Universität Graz die Bedeutung einer breiten Wissensvermittlung. Es gehe nicht nur um Spezialist:innen für KI, sondern vor allem um die große Masse an Mitarbeitenden, die einen “sinnvollen Umgang mit KI erlernen” müssen: „Je mehr Wissen wir in die Bevölkerung kriegen, umso mehr können wir Chancen nutzen und Risiken minimieren“.

Die Universität Graz hat dazu eine eigene Micro-Credential-KI gestartet, um Studierenden ein Grundwissen zu KI zu vermitteln: “Das ist ein abgeschlossenes Studienpaket, das man in jedes Studium integrieren kann und das gerade in einer Pilotphase ist”, erläutert Fallenböck. Das Paket lasse sich in jedes Studium integrieren. “Da ist die Idee, dass in ein paar Jahren jeder Bachelor-Studierende, der in Graz einen Abschluss macht, ein Grundwissen hat zu KI-Bereich, Technik, Wirtschaft, Recht, Ethik”.

Für die eigenen Mitarbeiter:innen hat die Universität Graz im Mai 2024 außerdem den Chatbot UniGPT gestartet. Bereits mehrere hundert Mitarbeiter:innen wurden dafür bereits eingeschult. “Da sitzt die Universitätsprofessorin neben der Sekretariatskraft und beide interessieren sich für KI und werden es in ihrem Arbeitsalltag gut einsetzen”, schildert Fallenböck seine Eindrücke.

Über die eigenen Mitarbeitenden will die Universität Graz Wissensvermittlung aber auch in die Bevölkerung tragen. Dazu hat sie im Oktober etwa erstmals den Technology Impact Summit zum Thema KI in Graz veranstaltet. “Weil natürlich auch wichtig ist, dass wir die breite Öffentlichkeit mit dem Thema erreichen. Je mehr Wissen wir in die Bevölkerung kriegen, umso mehr, können wir auch das Chancennutzen und Risikominimieren wirklich schaffen”, erläutert Fallenböck.

ITSV: Künstliche Intelligenz im Gesundheitssystem

 Die ITSV wiederum steuert und koordiniert die IT-Aktivitäten der österreichischen Sozialversicherung – und beschäftigt sich schon länger mit dem KI-Thema. Aufsichtsratsvorsitzender Moritz Mitterer erzählt im Talk, dass das Unternehmen bereits 2018 mit der Erprobung von KI-Lösungen begonnen habe. In einem geschützten Umfeld wurden dabei erste Erfahrungen gesammelt, bevor die Systeme in den Echtbetrieb übergingen. Dieser schrittweise Ansatz habe wesentlich dazu beigetragen, das Vertrauen in KI-Modelle im Unternehmen zu stärken.

Besonders bei sensiblen Daten, wie etwa Gesundheitsdaten, ist die Gefahr von Missbrauch ein zentraler Risikofaktor. Mitterer erläutert die Bedeutung von Transparenz und Nachvollziehbarkeit: „Man muss Patientinnen und Patienten mitnehmen, indem man entsprechend strenge Regeln hat und Compliance hat. Und indem man offen damit umgeht, falls doch was sein sollte“.

KI schafft Abhilfe bei steigendem Leistungsaufkommen bei ÖGK

Die ITSV arbeitet dabei unter anderem für die Österreichische Gesundheitskasse (ÖGK). Harald Herzog von der ÖGK erläutert, dass das steigende Leistungsaufkommen – etwa wachsende Fallzahlen, steigende Lebenserwartung, mehr Konsultationen – nach neuen Wegen verlangt: „Würden wir die Prozesse so weiterspielen wie bisher, bräuchten wir mehr Personal“, so Herzog. „Unsere Aufgabe ist es effizient zu arbeiten und alle technischen Möglichkeiten der KI auszunutzen“.

KI könne hier unterstützen, etwa bei der Wahlarztkostenerstattung. Ziel sei es, einen Großteil der Fälle automatisiert abwickeln zu können. Laut Herzog geht es aber nicht darum, den persönlichen Kontakt zu ersetzen, sondern lediglich zu ergänzen.

Zusätzliches Wirtschaftswachstum von bis zu 18 Prozent durch KI-Nutzung

Auch die öffentliche Verwaltung steht vor Herausforderungen, etwa aufgrund der Pensionierungswelle oder des Fachkräftemangels. Künstliche Intelligenz könnte dabei eine Rolle spielen. Bernd Konnerth von Microsoft Österreich sagt: „Künstliche Intelligenz kann eine Antwort sein – vielleicht nicht die Einzige, aber sie hat sehr viel Potenzial durch die Automatisierung wiederkehrender Tätigkeiten, viel Nutzen zu stiften“.

Aktuell befinde sich Österreich erst am Anfang, dieses Potenzial auszuschöpfen. Konnerth verweist auf eine Studie, dass Österreich ein Wirtschaftswachstum von bis zu 18 Prozent erzielen könnte, wenn das ganze Potenzial von KI ausgeschöpft werde.

Ausblick: KI-Nutzung in fünf Jahren

Wo steht der Einsatz von Künstlicher Intelligenz in fünf Jahren? „Ich hoffe, dass wir nicht mehr über die Technologie reden müssen, so wie wir heute auch nicht mehr über Strom sprechen, sondern dass sie einfach da ist“, so Microsoft-Experte Konnerth.

Carina Zehetmaier wiederum blickt auf die EU als Werteunion. In fünf Jahren solle man sehen, dass Österreich und Europa es geschafft haben, einen wertebasierten, menschengerechten KI-Einsatz umzusetzen. Für Österreich könne sich hier eine besondere Chance bieten, so Zehetmaier. Das Land könne sich als Vorreiter für einen vertrauenswürdigen, menschenzentrierten Umgang mit KI etablieren. Es gehe darum, „den menschenzentrierten Ansatz im Einklang mit Werten und Grundrechten umzusetzen“.

KI birgt enormes Potenzial

Die Diskussionsrunde ist sich einig, dass KI in sensiblen Arbeitsfeldern längst keine ferne Zukunftsvision mehr ist, sondern bereits eine zentrale Rolle darstellt. Die Chancen sind enorm – von effizienteren Verwaltungsprozessen über eine präzisere Gesundheitsversorgung bis hin zu einer gerechteren Bildung. Doch um diese Möglichkeiten zu nutzen, braucht es breites Verständnis, klare Regeln, vertrauenswürdige Technik und einen sensiblen Umgang mit Daten.


Folge nachsehen: No Hype KI – Was kann KI in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten?

Hier gehts es zur Nachlese von Folge 1: „No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

Die Partner von No Hype KI
Die Partner von No Hype KI

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

ChatGPT: Diese Fragen müssen sich Unternehmen vor dem Einsatz stellen

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

ChatGPT: Diese Fragen müssen sich Unternehmen vor dem Einsatz stellen

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

ChatGPT: Diese Fragen müssen sich Unternehmen vor dem Einsatz stellen

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

ChatGPT: Diese Fragen müssen sich Unternehmen vor dem Einsatz stellen

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

ChatGPT: Diese Fragen müssen sich Unternehmen vor dem Einsatz stellen

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

ChatGPT: Diese Fragen müssen sich Unternehmen vor dem Einsatz stellen

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

ChatGPT: Diese Fragen müssen sich Unternehmen vor dem Einsatz stellen

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

ChatGPT: Diese Fragen müssen sich Unternehmen vor dem Einsatz stellen

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

ChatGPT: Diese Fragen müssen sich Unternehmen vor dem Einsatz stellen