23.12.2021

Culture Tech – Der Mensch als ewiger Cyborg

Es ist schon wieder etwas geschehen. Technologie hat – getrieben von der Pandemie – um sich gegriffen und viele Bereiche des Alltags durchdrun- gen. Man kennt Begriffe wie „Click and Collect“, „Homeschooling“ und „Re- mote Work“ – „Culture Tech“ hinge- gen hat noch nicht den Status großer gesellschaftlicher Bekanntheit. Dies mag womöglich der bekannten Zöger- lichkeit des Österreichers gegenüber Neuem geschuldet sein, andererseits spielt vielleicht auch das große Aus- maß der Entwicklungen eine Rolle. „Culture Tech“ zersplittert nicht nur die Kultur in viele Teile, sie erschafft auch Märkte, Einnahmequellen, Re- präsentationsmöglichkeiten und schlicht neue Formen der Kunst. Ein vager Blick in eine noch vage Materie.
/artikel/culture-tech-der-mensch-als-ewiger-cyborg
Culture Tech, Kultur, Kunst, MyApp, ArchäoNow, NFT, Beeple, Banksy, Clara Blume, Blume, Karrer, Coeckelbergh, Weberstofer, Grablechner, Mint, Krypot-Cat,
(c) ArchäoNow, Martin Jordan, Johannes Güntner, NEA, Walter Mussil - Kultur und Technologie auf gegenseitiger Erkundung.

Gemälde, umgeben von hohen Marmorsäulen, die von kris­tallenen Kronleuchtern in Szene gesetzt werden. Ein einzelner Cellist auf einer Bühne vor einem Publikum in Frack und Abend­kleid; der Bogen fliegt in seinen Fingern umher, wie es sonst Superhelden auf Zelluloid tun. Springende Jugendliche zu lauten Gitarrenriffs, die dunkle Hallen füllen und Schallwellen erzeu­gen, die man mehrere Häuser weiter spürt. Auch eine lokale Küche mit Fokus auf Fleisch und Mehlspeisen als gesellschaft­liche Kollektivierung von Geschmack gehört dazu; wie auch die Würdigung von Unhöflichkeit als bestimmendes Identitätsmerk­ mal – Wien lässt grüßen. Oder eben, und das ist der springen­ de Punkt, zum Werk gewordene Programmiersprache, deren „5.000 Tage“ zu Rekordauktionen führen, wie es Beeple mit dem „69­-Millionen­-US­-Dollar­-Verkauf“ seines NFTs bewiesen hat. Kunst darf alles, und Kultur steht darüber.

Kultur ist ein Begriff mit vielen Aspekten, die greifbar sind. „Culture Tech“ hingegen bleibt, obwohl in der Kunstszene sehr häufig gebraucht unklar. Im engsten Sinne meint er die menschliche Form des digitalen Schaffens, die sich als Kunst versteht und so konsumiert wird, aber – abseits vom Tippen auf Tasten und dem Einsatz von Technologie – auch zwingend näher definiert werden muss. Es gibt mehrere Wege.

Überrannt von Technologie?

Mark Coeckelbergh sieht in „Culture Tech“ keinen akademischen Begriff, sondern ein Konzept, das im Feld von „Business“ und „Media“ verwendet wird. Der Technologiephilosoph der Uni Wien verortet eine Veränderung der Kunstwahrnehmung durch soziale Medien, die kulturelle Güter dem Betrachter vielleicht zuerst als Video näherbringen, dann womöglich später in Form von „Angesicht zu Kunstwerk“, also in Museen oder Galerien.

(c) Martin Jordan – Mark Coeckelbergh: „Ein Museum ist nicht mehr Gebäude des 19. Jahrhunderts“.

Es herrscht ein anderer Zugang, der durch die „Digitalisie­rungshorde“ entstanden ist, die spätestens mit der Pandemie auch den Kultursektor erfasst hat. „Gedanklich hat man noch viel zu tun, wenn man über ‚Culture Tech‘ spricht“, sagt der Wissenschaftler in diesem Sinne.

Eine Einschätzung, die Patricia Karrer, Gründerin des NFT-­Startups Nea, teilt: „‚Culture Tech‘ ist nicht nur ein relativ neuer, sondern auch ein vager und undefinierter Begriff. Im Allgemeinen umfasst er die Verwendung von ‚New emerging Technologies‘ im Kunst­ und Kulturbereich. Die Anwendungs­gebiete sind breitflächig gestreut – von Blockchain-gesicherten Zertifikaten für Kunstwerke bis zu VR-Galleries und vollkommen neuen innovativen Initiativen wie etwa NFT-Projekten.“

(c) NEA – Patricia Karrer: „Valeur darf nicht in Vergessenheit geraten“.

Mit dieser Aussage öffnet die junge Gründerin, wenn man so will, jene groben Zweige von „Culture Tech“, die zum Ver­ ständnis dienen und die mittels Technologie das Erleben und Schaffen von Kultur konstituieren.

Semantik

Der Begriff wird in großen Maße dafür verwendet, jene digitale Kunst zu beschreiben, die wohl unter der Bezeichnung „Art Technology“ in korrekterer Obhut wäre. Da aber „Culture Tech“ sich kollektiv und vorrangig auf den digitalen Künstler und des­sen Konsumenten konzentriert, ist dieses Kulturfeld zwar nur ein Teil, aber wohl der gewichtigste bei dem Versuch, digitale Entwicklungen der letzten Jahre in diesem Feld zu verstehen. Es ist zwar keine Neugeburt, aber ein Voranschreiten, das sich kulturell und vor allem künstlerisch gezeigt hat. Kunst wurde digital.

(c) Walter Mussil – Clara Blume: „Im deutschsprachigen Raum ist ‚Culture Tech‘ weit stärker mit künstlerischem Schaffen assoziiert“.

Clara Blume ist eine österreichische Künstlerin und Kultur­diplomatin. Im Auftrag des österreichischen Außenministeriums leitet sie die Open Austria Art + Tech Labs im Silicon Valley. Sie kuratiert und fördert Kunstprojekte, die das Zusammenspiel von menschlicher und künstlicher Kreativität erforschen – und kennt ebenso die unterschiedliche Handhabung der Bezeichnung

„Culture Tech“

„In den USA beispielsweise beschreibt der Begriff de facto Apps, die den Arbeitsablauf innerhalb eines Unternehmens effizienter gestalten, sprich, die Arbeitskultur fördern und homo­genisieren. Im deutschsprachigen Raum hingegen ist der Begriff Kultur weit stärker mit künstlerischem Schaffen assoziiert, wo­ durch ‚Culture Tech‘ auch ganz konkret Software-­Applikationen beschreibt, die für das Kunstgeschäft designt sind. In meinem Arbeitsumfeld sehen wir darin einen Zugang zu Kunst und Kultur, der auf das enorme Potenzial von digitalen Technologien setzt“, sagt Blume.

Vera Grablechner, Gründerin der „myCulture“-­App, drückt die Begriffsdefinition für sich in ähnlichen, europäischen Worten aus, wenn sie sagt: „Für mich bedeutet ‚Culture Tech‘ jegliche Form von Technologie, die für den Kultursektor entwickelt wird, um diesen in einer gewissen Form zu verbessern – zum Beispiel, um Kunstobjekte ‚ultrarealistisch‘ als 3D-Modell zu digitalisieren und so für die Nachwelt zu erhalten, oder wie im Fall von ‚myCulture‘, personalisierte Empfehlungen für Aus­stellungen mittels Machine Learning zu präsentieren.

(c) Johannes Güntner – Vera Grablechner: „Österreich ist, was die Startup-Szene angeht, nicht da wo es sein könnte.“

Grablechner spricht hier an, was Coeckelbergh anfangs angedeutet hat und Karrer im weitesten Sinne als „Galerien im Netz“ andenkt: nicht nur die Möglichkeiten, maßgeschneiderte Kunst empfohlen zu bekommen, sondern sie auch vorab zu sehen.

Das Internet hat dabei nicht das „Rad erfunden“, dafür aber neue Möglichkeiten entdeckt, Technologie dazu zu nutzen, Kunst zu machen und sie zu erleben. All dies gipfelt in diesem einen Begriff, der von Beteiligten oft prominent verwendet wird, aber noch wenig fassbar scheint.

(c) ArchäoNow – Miriam Weberstorfer: „Es ist wichtig, unterstützende Maßnahmen für Unternehmen zu schaffen.“

Ein klareres Bild erhält man allerdings auch, wenn man dem Gedanken von Miriam Weberstorfer, Founderin von Archäo­NOW, folgt, der „Werkzeuge“ in den Fokus stellt: „Die digitale Entwicklung transformiert die unterschiedlichsten Bereiche. Die Methoden der Vermittlung verändern sich, also die Art und Weise, wie Inhalte – Wissen, Emotionen, Fantasien – transpor­tiert werden können. Ich bin überzeugt, dass der intelligente Einsatz moderner Technologien in Kombination mit neuen inhaltlichen Konzepten das Erlebnis von Kulturgütern erheblich bereichert und neue Zielgruppen erschließt. Es werden also neue Türen geöffnet, sowohl für Kulturkonsumenten als auch für Kulturschaffende“, sagt sie.

„Kunst kann helfen“

Und genau darin entfaltet sich die Argumentationslinie, um Kritikern digitaler Kunst etwas entgegenzusetzen, die sich gegen die Neuausrichtung der Kunst hin zur Technologie aussprechen.

„Auch in prähistorischen Zeiten war der Mensch immer ein Cyborg“, sagt Coeckelbergh, „ein technologisches Wesen, das Werkzeuge benutzt hat. Das war immer Teil der Kultur. Kunst­ formen bilden ab, was schon lange da ist, bloß die Techniken haben sich geändert. Die Durchdringung von digitaler Techno­logie müssen wir kulturell und konzeptuell fassen. Und Kunst kann uns dabei helfen.“

Dass sie nicht nur das tut, ist besonders in der Startup­-Szene keine bahnbrechende Neuigkeit mehr. Denn wie Grablechner weiß: „Das Spannende ist, dass ‚Culture Tech‘ nicht nur viele Vorteile für Kulturkonsument:innen bringt, sondern auch für andere Stakeholder:innen im Kulturbereich, etwa Museen, Galerien und auch Künstler:innen. Zum Beispiel arbeitet das Unternehmen Roots Studio aus den USA weltweit mit indi­genen Kunstschaffenden zusammen, um ihr einzigartiges und gefährdetes Kunsterbe auf neuen Medien zu digitalisieren – und zwar mit einem Modell, das ihren Lebensunterhalt, ihre Gemeinschaft und ihre Traditionen finanziell unterstützen kann“, sagt sie. „In den letzten Jahren hat sich aufgrund der Covid­19­Pandemie auch der Kunstsektor mit dem Thema Digitalisierung auseinandersetzen müssen und ist daher nun für ‚Culture Tech‘­Innovationen weitaus empfänglicher als noch vor ein paar Jahren. Dieser Offenheit gilt es, mit wertvollen und langfristigen Ideen zu begegnen.“

Dies tut vor allem Patricia Karrer, die offen für neue Appli­kationen ist, aber auch darüber reflektiert, wie sie sagt: „Ich beobachte dies vor allem in der Zusammenarbeit mit Künst­ler:innen anhand meines eigenen Projekts. Neue Anwendungs­bereiche sind spannend, aber primär geht es auch darum, dass der künstlerische und kreative Stellenwert, das ‚Valeur‘, nicht in Vergessenheit gerät und nur noch kommerzielle Möglichkeiten im Vordergrund stehen.“

Ihr Startup Nea, erzählt sie, bereite aktuell ein NFT­-Bootcamp für eine Fokusgruppe von 30 Künstler:innen vor, in welchem die Verwendung von „NFTs hands ­on“ erklärt werde. „Jedoch setzen wir uns in diesem Zuge auch kritisch mit dem Thema ‚Culture Tech‘ auseinander und bearbeiten delikate Fragen wie: Ist NFT-­Art Kunst? Geht der Ausdruckswert des physischen Werks durch digitale Aspekte verloren oder erschaffen sie neue Möglichkeiten für den kreativen Ausdruck?“

Virtualität

Während „Creators“ ausloten, welche neuen Möglichkeiten ihnen die letzten Jahre in die Hände gelegt haben, entdecken auch Kunstliebhaber:innen neue Wege, ihrer Leidenschaft zu frönen. Ein beinharter Kunstentzug war eine Folge der Lockdowns, sodass Museen und Galerien gezwungen waren, Konsumenten neue Lösungen zu präsentieren.

„Dadurch haben Unternehmen, die Ausstellungen mittels Web-­VR virtuell begehbar oder Kunst via Augmented Reality im öffentlichen Raum erlebbar gemacht haben, eine sehr hohe Nachfrage erfahren. Diese Lösungen kamen in der Kunst­-Community sehr gut an, und es hat sich gezeigt, dass vor allem junge Erwachsene durch den Einsatz innovativer digitaler Lö­sungen für Kunst begeistert werden können“, so Grablechner.

Ein Beispiel dafür findet sich beim Wiener Startup von Weberstorfer namens ArchäoNOW. Ihr Unternehmen hat sich auf ausgefeilte AR­- und VR-­Touren durch Wien spezialisiert, was besonders mit dem Shift Richtung Outdooraktivitäten während der Pandemie Anklang fand. Es handelt sich um Geschichte­ und Kulturvermittlung mit digitaler Komponente, um die reale Welt zu erweitern. „Ich halte diese beiden Technologien besonders im Bereich Kultur für sehr sinnvoll, sie bringen viele Vorteile. Zum Beispiel können unterirdische Katakomben virtuell zugänglich gemacht werden oder man kann nicht mehr existente Gebäude wie das Sterbehaus von Mozart oder die Maria­ Magdalena ­Kapelle am Stephansplatz wieder auferstehen lassen. Man kann darüber hinaus Gegenstände wie wertvolle Reliquien aus dem Stephansdom direkt in die eigenen Hände bekommen, sie betrachten und studieren. Denn nicht alle Kulturobjekte sind jederzeit für jedermann zugänglich; viele müssen geschützt werden, Räume sind nicht mehr begehbar, existent oder aus Sicherheitsgründen versperrt. Kulturgüter befinden sich aber auch teils an den unterschiedlichsten Orten der Welt – all diese Probleme können unter anderem durch AR und VR gelöst werden“, sagt Weberstorfer.

Blume indes platziert diesen technologischen Sprung für die Kulturgeschichte weitaus schärfer in Richtung „Culture Tech“ als Ergänzung zu Kunst und Kultur: „Einen Goya auf Google Arts & Culture anzusehen anstatt auf der Lederbank im Museo del Prado ist ein trauriger Abklatsch des authentischen Kunstgenusses“, sagt sie. „Das darf auch nicht der Anspruch sein. Ein digitales Archiv erfüllt eine komplementäre Funktion zum originalen Kunstwerk, indem sie dieses Menschen auf der ganzen Welt mit einem Mausklick zugänglich macht. In Analogie dazu müssen Künstler:innen und Kurator:innen die Virtualität als Chance begreifen.“

Neuartige Erschaffung und Betrachtung sind nicht die einzigen Bereiche, an denen „Culture Tech“ stehen bleibt. Besonders die erwähnten Non Fungible Tokens (NFTs) haben einen Hype ausgelöst, der dazu führte, dass, wie Karrer meint, fast täglich neue „Collection Drops“ publiziert werden oder neue Projekte entstehen. „Ich sage dazu sehr gerne: ‚Die Welt ‚mintet‘ um die Wette, wer die nächsten ‚Crypto-Kitties‘, ‚Frogs‘ oder ‚Apes‘ launcht und sich dadurch eine goldene Nase verdient.‘ Dies ist ja alles nett und gut, aber meiner Meinung nach ein vollkommenes Bubble Happening ohne jegliche wirtschaftliche Nachhaltigkeit“, so die Nea-Gründerin. „Dies bedeutet jedoch nicht, dass NFTs als Technologie per se nicht ungemeine Möglichkeiten schaffen– im Sinne dessen, dass sie als neue künstlerische Wertigkeit und als Anregung für neue kreative Schaffensphasen verwendet werden können. Im gleichen Zug erkunden Künstler:innen einen neuen Markt, um Gewinne zu erzielen.“

Doch dort, wo neue Märkte entstehen, reicht es nicht, sie aus der Ferne zu beobachten, wie man es mit einem Bild von Picasso oder Banksy tun würde – eine Sichtweise, wie sie auch Grablechner zu teilen scheint, die zugleich eine Lanze für Startups in dem Bereich bricht, wenn sie sagt: „Österreich ist, was die Startup-Szene angeht, nicht da, wo es sein könnte. Zwar gibt es vereinzelt Hackathons, Inkubatoren und Accelerator-Programme wie beispielsweise durch die Wirtschaftsagentur Wien, allerdings wird ‚Culture Tech‘ nicht gesondert behandelt, sondern entweder in der Technologie- oder Kreativbranche eingeordnet. Somit sind wir in einen stark umkämpften Sektor gedrängt, in dem es relativ schwierig ist, finanzielle Förderung zu erhalten, unter anderem, da technologische Innovationen oft mehr kosten als analoge Kreativprojekte. Ein weiteres Problem ist, dass Kunst und Kultur nicht im Rahmen der SDGs (Social Development Goals der UN, Anm.) behandelt werden und daher in vielen auf Impact fokussierten Programmen keinen Platz finden. Es wäre doch einen Versuch wert, in einem Land, das Kunst und Kultur so hoch schätzt, gezielt ‚Culture Tech‘-Startups zu fördern.“

Unterstützt wird sie bei dieser Einstellung von Weberstorfer, die ebenfalls meint, dass innovative Ideen gefördert und konservative, lähmende Strukturen endlich aufgebrochen gehören: „Grundsätzlich ist die Nutzung von neuen Technologien in der Regel nicht billig – darum ist es wichtig, hier unterstützende Maßnahmen für Unternehmen zu schaffen“, sagt sie.

Blume indes meint, Österreich habe bereits alle Zutaten, um sich international als „Culture-Tech-Hub“ zu etablieren. Etwa: Talent, Hochschulen mit exzellenter Grundlagenforschung, innovatives Potenzial, einen reichen kulturellen Humus, eine hohe Lebensqualität, um Talente aus dem Ausland anzuziehen, und eine solide öffentliche Förderkultur, um heimische Ideen zu unterstützen. „Unsere Kultur braucht frischen Sauerstoff im Blut, um lebendig, relevant und kritisch zu bleiben. Anstatt über das überholte Thema der Digitalisierung zu diskutieren, sollten wir uns vielmehr Gedanken darüber machen, wie Österreich das Zeitalter der künstlichen Intelligenz aktiv mitgestalten kann. Es wird sich zeigen, dass der Schlüssel hierzu in der menschlichen Kreativität liegt“, so Blume.

Museum überall

Eines der ersten Dinge, die in Retrospektive durch die Digitalisierung der Kunst sichtbar wurden, waren ironischerweise die analogen Plätze selbst; Museen, Galerien, die plötzlich neue Angebote auffuhren. Laut Coeckelbergh ist das Museum bereits in verschiedene Orte aufgeteilt. Multimediale Angebote, Audioguides oder Onlineausstellungen seien Ergebnisse einer verbindenden Technologie. „Ich denke, dass sich das Museum in Zukunft verwandeln wird. Es wird nicht mehr dem Gebäude aus dem 19. Jahrhundert ähneln, sondern sich selbst vielmehr mitten in der Gesellschaft sehen. Das Museum wird überall sein“, sagt der Tech-Philosoph und adressiert damit diverse Ängste von Fetischisten klassischer Kunsterfahrung.

Wer dennoch ein Ende analoger Kulturorte ausruft, wird auch in Weberstorfer eine Widersacherin finden. Die Gründerin sieht in ihrer Einstellung keinen Entweder-oder-Aspekt, sondern ebenfalls das zusammenführende Element in der statt-findenden Evolution zwischen Technologie und Kultur.

„Eine Gefährdung sehe ich hier keinesfalls. Ich verstehe das Netz als Erweiterung der Möglichkeiten für eine große Masse an Menschen. Es kann aber niemals, wie ich finde, ein reales Museum oder eine Galerie ersetzen. Ich persönlich liebe es, im Museum durch die Ausstellungsräume zu schlendern. Das klackende Geräusch von unzähligen Schritten auf den Marmor- öden der Eingangshalle, der holzig-warme Geruch der Sammlungsgegenstände in ihren historischen Vitrinen, der faltbare Raumübersichtsplan in meinen Händen, der Durstlöscher im Hauscafé – ein Museumsbesuch ist ein Erlebnis für alle Sinne, das kann ein rein digitales Format nicht liefern. Jedoch können digitale Methoden das Erleben interaktiver gestalten.“

Eine Zukunftsperspektive, die auch Blume teilt. Die Künstlerin, die vom Kunstmagazin „Apollo“ als eine der weltweit „40 under 40“ talentiertesten jungen Menschen in der Kategorie „Art + Tech“ genannt wurde, hatte wohl nicht als Einzige während der Coronakrise eine kleine Epiphanie. Sie sagt: „Ohne Onlineperformances und Streamingservices wären wir während der Pandemie komplett vereinsamt. Daraus den Schluss zu ziehen, dass sich Kunst nur mehr im Netz abspielen wird, ist aber verfehlt. Wir sind nicht nur Geist, sondern auch Körper, und dieser sehnt sich nach Stimulierung. Die virtuelle Realität schafft zwar bereits heute ein beeindruckendes Simulacrum unserer Welt, allerdings bleiben hierbei Haptik und Geruchssinn auf der Strecke. Ich verstehe deshalb digitale Kunst und physische Ausstellungsräume nicht als Gegensätze, sondern als komplementäre Konzepte. Die Zukunft der Kunst liegt im ‚Immersive Experience Design‘, einer Hybridität der Künste, wo alle menschlichen Sinne, angesprochen in einem interaktiven Kunsterlebnis, zusammenfließen.“


Dieser Artikel erschien im brutkasten-Magazin „Generations„, Ausgabe 13.

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
27.01.2025

Open Source und KI: „Es geht nicht darum, zu den Guten zu gehören“

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.

„No Hype KI“ wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie „No Hype KI“ diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

„Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“

„Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen“, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. „Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören“, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als „Key Technology“ im KI-Bereich. Für „Women in AI“ spiele die Offenheit eine zentrale Rolle: „Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.“ Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was „open“ sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. „2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.“ Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: „Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.“ Florian Böttcher von CANCOM Austria pflichtet hier bei: „Wir setzen genau so auf hybrid.“

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. „Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.“

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. „Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden“, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in „Compliance-Fallen“ führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: „Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.“ Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: „Man kann nicht immer gleich die neueste ‚bleeding edge‘-Lösung nehmen sondern sollte etwas konservativer herangehen.“

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. „Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich“, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. „KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht“, so Böttcher.

„Rechenleistungs-Hunger“ von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. „Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur“, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der „Rechenleistungs-Hunger“ sich verringere.

Patrick Ratheiser ergänzt: „Es ist grundsätzlich eine Kostenfrage.“ Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. „Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar“, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. „Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben“, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: „Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.“

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: „Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.“ Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. „Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann“, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. „Wenn ich KI verwende, muss ich auch wissen, was drinnen ist“, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? „Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen“, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: „Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.“ Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die „Pioniere“ im Unternehmen. „AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen“, so Ratheiser.

„Einfach einmal ausprobieren“

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: „Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.“ Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: „Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.“ Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag