27.03.2024
KÜNSTLICHE INTELLIGENZ

Chatarmin: Zweifel an eigener KI-Lösung wegen Demo-Video

Johannes Mansbart, der Gründer von Chatarmin, hat kürzlich eine Whatsapp-KI-Chatbot-Lösung vorgestellt. In einem Demovideo wird allerdings ein Anbieter aus Kanada gezeigt, was für Verwunderung und Kritik sorgte. Wir fragten beim Chatarmin-Founder nach. Und durchleuchten zugleich eine Problematik der KI-Chatbot-Anbieter.
/artikel/chatarmin-zweifel-an-eigener-ki-loesung-wegen-demo-video
Chatarmin, WhatsApp-KI-Lösung, WhatsApp-Marketing.
c) Chatarmin - Chatarmin-Gründer Johannes Mansbart.

Suggestion ist ein erprobtes Mittel, um Sachverhalte in einer bestimmten Weise darzustellen, die nicht ganz der Wahrheit entsprechen; aber schlussendlich auch nicht total unwahr sind. Man benutzt sie, um Gedanken, Ideen und Vorstellungen im Gegenüber einzupflanzen, ohne sich dabei wirklich angreifbar zu machen. Man suggeriert mit Worten, mit Zeilen und vor allem mit dem Dazwischen.

“Fake it, ’til you make it” indes ist eine seltsam anhaftende Weise, die aus den USA zu uns herübergetröpfelt ist und von allen Startup-Ökosystemen in allen Ländern scheinbar nicht nur geduldet wird, sondern als probates Mittel gilt. Was, der Sache auf den Kern gehend, ein Problem darstellt. Manchmal gebart sich die Startup-Szene wie ein “Beauty Contest”. Man schminkt sich, präsentiert sich und versucht vor allem eines: schön auszusehen.

In anderen Worten, man erstellt geschönigte Pitch-Decks, zahlt einen Haufen an Geld an PR-Agenturen, damit sie Aussendungen einen einzigartigen Spin verpassen und unauffällig übertreiben. Und manchmal tut man so als ob. Dies tut man um Investoren und Investor:innen zu beeindrucken, Kund:innen zu begeistern und öffentlich im guten Licht dazustehen.

Doch wo man oft Dinge nach außen trägt, dort werden diese auch kritisch beäugt – nicht nur als Due Dilligence, sondern auch unter dem Deckmantel der Verwunderung, wie viel Wahrheitsgehalt in Behauptungen steckt oder ob Übertreibung der Vater oder die Mutter des Dargestellten ist. So ähnlich geschehen bei Johannes Mansbart, einem der Gründer von Chatarmin.

Chatarmin-Founder als Provokateur

Mansbart ist mittlerweile vielen ein bekannter Name. Der Gründer des KI-Chatbot-Startups fällt vor allem auf LinkedIn durch seine provokanten Posts auf. Er propagiert lange Arbeitszeit als das Um und auf des Erfolgs, kritisiert New-Work-Tendenzen sowie individuelles Eingehen auf Mitarbeiter:innen-Bedürfnisse, berichtet regelmäßig von seiner Arbeitseinstellung, die ihn dorthin gebracht hat, wo er jetzt ist (zum Erfolg), erwähnt nebenbei seinen Reichtum in jungen Jahren, spricht von Wohlstandsverwahrlosung, attackiert die Konkurrenz und wettert gegen Menstruationstage, Frauenquoten und die 4-Tage-Woche. Er stellt sich aber auch kritischen Fragen und reagiert auf Kommentare – hier nachzulesen.

Vor kurzem stellte sein Startup Chatarmin einen selbst trainierbaren KI-Chatbot vor. Ein großer Meilenstein des WhatsApp-Software-Anbieters. Dadurch sollen Support- und Operations-Team entlastet werden. Mansbart kündigte dies auf LinkedIn wie folgt an:


“chatarmin.com goes AI! 🤖 Wir sind stolz, das erste Hashtag#whatsappmarketing Tool der Welt mit einer vollumfänglichen und DSGVO-konformen KI-Integration für unsere Kunden anzubieten. Was das bedeutet 🎬

  1. “Echter Support” statt “dummem Chatbot”

Wir können per Chatarmin WhatsApp KI nicht nur Webseiten, PDF’s und Notion-Wiki-Pages auswerten und damit unsere Kunden ihre eigenen WhatsApp KI Chatbots trainieren lassen.”


Zudem schrieb er per Aussendung: “Wiener WhatsApp-Marketing-Software launcht eigene WhatsApp KI für Unternehmen” und veröffentlichte ein Demo-Video, das die Funktionsweise erklärt.

Brutkasten wurde allerdings darauf aufmerksam gemacht, dass in jenem Video zwar gezeigt wird, wie man die neue WhatsApp-KI-Software nutzt, es sich aber um einen anderen Chatbot handelt, der dort verwendet wird, wie ab Sekunde 27 ersichtlich ist (siehe Screenshot).

Screenshot Demo-Video von Chatarmin.

Darin erkennt man, dass es sich um einen Chatbot-Builder von Chatbase handelt, der im Februar 23 von Yasser Elsaid entwickelt wurde. Dessen Firma sitzt in Toronto, Kanada.

An dieser Stelle stellt sich berechtigterweise die Frage, ob Chatarmin den AI-Bot, den es gelauncht hat, tatsächlich selbst gebaut oder ihn aus einer bestehenden Lösung entwickelt – also sich quasi draufgesetzt – hat. Und wieso man ein Chatbase-Demo-Video nutzt.

“In Ordnung Lösungen zusammenzustückeln, aber…”

Es sei zwar in Ordnung verschiedene Lösungen zusammenzustückeln, aber “nicht richtig und wahrhaftig” sie als eigene Lösung zu verkaufen, erklärt ein KI-Experte, der anonym bleiben möchte. “Kopieren ist eine Sache, aber man sollte nicht 1:1 kopieren, denn so kommt man in Teufels Küche. Wenn die Kopierten davon Wind bekommen, dann hat man andere Probleme. Und fair gegenüber Kunden ist es auch nicht. Irgendwann ist das Fass voll. Wenn du dich als ‘Nummer 1’ bezeichnest, dann musst du das validieren können.”


Das DSGVO-Problem: Das gilt es zu beachten

Doch es ist nicht nur die moralische Frage der Nachahmung, die an dieser Stelle als Kritik auftritt, sondern auch ein gänzlich anderes Problem, dem sich Gründerinnen und Gründer aus diesem KI-Bereich stellen und achtsam sein müssen: Datenschutz.

Es bleibt die Frage, ob bei “nicht eigens entwickelten” KI-Lösungen Daten von Kund:innen “ungefiltert” in ein Drittland wandern. Jeannette Gorzala, Rechtsanwältin in Wien mit Spezialisierung auf Wirtschaftsrecht und neue Technologien, erklärt in einem kurzen Exkurs allgemein die wichtigsten Punkte, die es bei dieser Thematik zu beachten gilt.

  • Jedes Unternehmen ist grundsätzlich für die Einhaltung des Datenschutzes betreffend seinen Betrieb verantwortlich. Daher empfehle ich jedem Unternehmen zu prüfen, welche KI-Lösungen man implementiert und welche konkreten Konsequenzen sich daraus insbesondere für KI-Regulierung, Datenschutz, Urheberrechte und Haftungen ergeben.
  • Für den Datenschutz konkret ist die Datenschutzerklärung ein guter erster Ansatzpunkt. Hier geht für Chatbase klar hervor, dass Daten in den USA verarbeitet werden und es wird auch eine Liste externer Sub-Auftragsverarbeiter zur Verfügung gestellt, in der zum Beispiel OpenAI und andere Anbieter angeführt werden. Kunden können sich daher nicht darauf berufen, nicht gewusst zu haben, dass Daten in den USA verarbeitet werden, wenn dies explizit in der Datenschutzerklärung offengelegt wird.
  • Natürlich darf ein Anbieter zum Marketing nicht vorgeben oder fälschlicherweise behaupten, die gesamte Lösung inklusive des dahinterliegenden LLMs (Anm.: Large Lanuage Models) selbst entwickelt zu haben. Ein derartiges Verhalten kann Konsequenzen nach dem Gesetz gegen unlauteren Wettbewerb nach sich ziehen, beispielsweise wegen Irreführung über wesentliche Produktmerkmale.
  • Nach der DSGVO kann eine internationale Übermittlung von Daten erfolgen, wenn ein angemessener Schutz der Grundrechte von natürlichen Personen mit Blick auf den Datenschutz gegeben ist. Die EU-Kommission hat festgelegt, dass in mehreren Ländern aufgrund ihrer Rechtsvorschriften oder internationaler Verpflichtungen ein angemessenes Datenschutzniveau gewährleistet ist. Zu diesen Ländern zählt unter anderem Kanada.
  • Für die USA gibt es ein neues EU-US Data Privacy Framework (DPF), das den EU-US-Privacy-Shield ersetzt. Hier muss geprüft werden, ob das Unternehmen in den USA, an das Daten übermittelt werden, unter dem DPF zertifiziert ist. OpenAI ist zum Stichtag heute beispielsweise nicht gemäß dem DPF zertifiziert. Bei der Nutzung von Diensten von OpenAI (Anm.: ChatGPT) muss daher das Unternehmen, welches Dienste von OpenAI verwendet, selbst den Datentransfer prüfen und geeignete Maßnahmen zur Wahrung des Datenschutzes treffen. Wir empfehlen hier ein “Transfer Impact Assessment” und einen weiteren Maßnahmenkatalog zur Risikominimierung.

Chatarmin-Founder erklärt das Demo-Video

Um nach diesem Zwischenruf zurückzukehren: Auf die Frage, ob Chatarmin den Bot aus Kanada kopiert und eine eigene Version draufgesetzt hat bzw. warum man in der Demo Chatbase zeigt, erklärt Mansbart auf Nachfrage: “Für Demo-Zwecke ist es viel einfacher, Chatbase zu nützen – auch, weil wir nicht alles preisgeben können. Unsere Mitbewerber spionieren uns ständig aus. Darüber habe ich auch schon auf LinkedIn geschrieben. Unser LLM ist ebenso ChatGPT, die UI/UX ist für Kunden exakt dieselbe. Daher macht das total Sinn, für die Demo auf eine andere fertige Lösung zurückzugreifen.”

Zudem verweist der Founder auf einen Blogbeitrag vom 12. März 2024. Darin schreibt er: “Wir haben unseren hauseigenen ChatGPT WhatsApp-Chatbot mit unseren internen Ressourcen wie PDF-Dokumenten, Begriffsseiten und auch unserem Blog-Bereich hier auf chatarmin.com trainiert. Wir haben ausschließlich unsere hauseigene Software, Chatarmin, zusammen mit ChatGPT verwendet, um unseren ersten GDPR-konformen ChatGPT WhatsApp-Chatbot in Betrieb zu nehmen.”

OpenAI und GDPR

Cointelegraph schreibt in diesem Sinne jedoch zu OpenAI und dem Thema GDPR: “In der Datenschutzrichtlinie von OpenAI zu ChatGPT werden die Bemühungen des Unternehmens zur Einhaltung des kalifornischen Verbraucherschutzgesetzes erläutert. Allerdings sind die Angaben zu internationalen Gesetzen, einschließlich GDPR, recht dürftig. Die Datenschutzrichtlinie enthält allgemeine Informationen zur Verwendung personenbezogener Daten, zur Datenspeicherung und zum Zugriff durch Dritte.”

Der KI-Anbieter omnifact.ai berichtete zudem am 9. Februar 2024 wie folgt: “Die Einhaltung der GDPR ist ein Markenzeichen für verantwortungsvolle Geschäftspraktiken. Zum gegenwärtigen Zeitpunkt sind OpenAI und seine Plattform ChatGPT nicht in der Lage, die GDPR-Standards einzuhalten, aber sie arbeiten daran, die Komplexität der Einhaltung zu bewältigen.”

Ähnlich liest man das bei der International Association of Privacy Professionals vom 1. März 2024: “Die italienische Datenschutzbehörde ‘Garante’ hat nach einer Untersuchung festgestellt, dass der Chatbot ChatGPT von OpenAI gegen mehrere Bestimmungen der EU-Datenschutzgrundverordnung verstößt.” Und auch TechCrunch berichtete bereits Ende Jänner über ChatGPT und die GDPR-Problematik, hier nachzulesen.

Eine zweite Anfrage zu dieser Kritik an ChatGPT blieb bisher unbeantwortet. Jedoch geht Mansbart aus dem ersten Kontakt auf etwas anderes ein und stellt nach Kritik klar: “Wir haben nie behauptet, das erste WhatsApp-Marketing-Tool zu sein. Sondern: DSGVO-konform + KI. Und da sind wir weltweit die ersten. Das weltweit erste WhatsApp-Marketing-Tool mit DSGVO-konformer KI-Integration. Das ist Fakt. Es gibt dazu auch einen Blogpost (Anm.: vom 12. März 2024, dem gleichen Tag der Kontaktaufnahme des brutkasten mit Mansbart) von mir und wir haben erste Kunden auf unserer Solution live.”

“Ohne Imitation wäre der Mensch gar nicht überlebensfähig”

Zum Thema “Kopieren generell” meint der Founder, dass Kopieren in der menschlichen Geschichte seit der Ur-Existenz unserer Spezies seine Wurzeln hat: “Ohne Imitation wäre der Mensch gar nicht überlebensfähig. Im Business ist das so ein Thema, bei dem sich jeder ertappt, erwischt, aber auch verstanden fühlt. Jeder kopiert, jeder hat schon einmal kopiert, jeder wurde schon einmal kopiert. Daher ist das total müßig. Ein Startup mit P/M-Fit, bzw. ein funktionierendes Unternehmen, muss sich über Copycats niemals Gedanken machen und sollte wenn dann dankbar für Markt-Erweiterung und Challenge zur Produkt-Entwicklung sein. Denn Wettbewerb schafft Fortschritt.”

“99 Prozent von allem, was in Pitchdecks und Business-Plänen steht ist erlogen”

Auch zum Thema Suggestion bzw. “Fake it, ’til you make it” hat Mansbart klare Einstellungen: “Ich find es witzig, dass diese Frage von einem Startup-Medium kommt”, sagt er. “99 Prozent von allem, was in Pitchdecks und Business-Plänen steht, ist entweder erlogen oder zumindest massiv geschönt. Das ist das, was der Startup-Szene schadet. Und nicht, wenn ‘proven business models’ verbessert, iteriert, und auf neuen bzw. alternativen Märkten und mit iterierten Business-Models und bzw. oder Produkten weiterentwickelt werden. Man hat eine viel höhere Chance auf ‘Success’, wenn man sich Product/Market-Fit nicht von der Pieke auf selbst erarbeiten muss. Wir haben das getan, ich berichte auf LinkedIn täglich davon, und auch, wie hart das war.”

Und weiter: “Product/Market-Fit ist und bleibt ein Fremdwort für Österreichs Jungunternehmer-Szene, das führt zu einem langsamen und un-innovativen Ökosystem, wo leider prinzipiell nicht viel passiert. ‘Faken’ muss man eher anfangs etwas, wenn man noch keine Cases und Kunden hat. Denn Versuchskaninchen will keiner sein. Das hat auch unser Leben anfangs sehr erschwert. Der 17. Kunde ist viel leichter gewonnen als der dritte.”

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Chatarmin: Zweifel an eigener KI-Lösung wegen Demo-Video

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Chatarmin: Zweifel an eigener KI-Lösung wegen Demo-Video

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Chatarmin: Zweifel an eigener KI-Lösung wegen Demo-Video

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Chatarmin: Zweifel an eigener KI-Lösung wegen Demo-Video

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Chatarmin: Zweifel an eigener KI-Lösung wegen Demo-Video

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Chatarmin: Zweifel an eigener KI-Lösung wegen Demo-Video

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Chatarmin: Zweifel an eigener KI-Lösung wegen Demo-Video

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Chatarmin: Zweifel an eigener KI-Lösung wegen Demo-Video

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Chatarmin: Zweifel an eigener KI-Lösung wegen Demo-Video