20.12.2023

KI-Experte Klambauer über Large Language Models: “Brauchen jetzt neue Ideen”

Interview. Steuern wir auf eine Artificial General Intelligence (AGI) zu - oder stoßen die aktuell populären Ansätze bei künstlicher Intelligenz (KI) bald an ihre Grenzen? KI-Forscher Günter Klambauer von der Johannes Kepler Universität Linz erläutert im brutkasten-Gespräch den aktuellen Stand - und wie es mit KI weitergehen könnte.
/artikel/klambauer-neue-ideen-sprachmodelle
KI-Professor Günter Klambauer
Günter Klambauer | Foto: Johannes Kepler Universität Linz

Günter Klambauer ist assozierter Professor für künstliche Intelligenz an der Johannes Kepler Universität Linz. Im brutkasten-Interview erläutert er, wie die Fortschritte bei großen Sprachmodellen (Large Language Models – LLMs) aus technischer Sicht zu bewerten sind und welche Zukunftszenarien für künstliche Intelligenz überhaupt realisitisch sind.


brutkasten: Beruhen die aktuellen Fortschritte bei Large Language Models (LLMs) auf besseren Algorithmen oder doch eher auf stärkerer Rechenpower und höherer Skalierung?

Günter Klambauer: 2019 hat man herausgefunden, dass man einfach durch das bloße Größermachen von Modellen deutliche Verbesserungen erzielen kann. Diese Modelle sind sogenannte künstliche neuronale Netze und bei deren Entwicklung kann man einfach entscheiden, wie groß die sind. Man kann die größer machen, indem man einfach eine Zahl im Programm ändert. 

Für manche in der Forschung war das ein bisschen enttäuschend, denn bis dahin ist man davon ausgegangen, dass man dafür neue Algorithmen brauchen würde. Tatsächlich hat sich aber eben herausgestellt, dass sich die Modelle durch das bloße Größermachen verbessern. 

Das führt aber dazu, dass man mehr Rechenpower benötigt. Für die IT-Giganten wie Google, Facebook, Amazon oder OpenAI war das super. Die verfügen über große Rechenzentren und konnten ihre Modelle einfach immer größer und größer machen. 

Allerdings beruhen nicht alle Fortschritte nur auf Skalierung. Es hat schon auch die sogenannte Transformer-Technologie benötigt. Sie hat dazu geführt, dass Sprachmodelle eben nicht nur übersetzen, sondern auch generieren – basierend auf Texten oder Vervollständigen. Das ist, was wir als Generative Pre-Trained Transformers, als GPTs, kennen.

Welche Rolle spielen die Datensätze dabei?

Das ist die zweite Achse, man füttert die Modelle mit mehr Daten. Früher waren die Datensätze vergleichsweise klein – mit ein paar Milliarden Wörtern aus Wikipedia. Mittlerweile muss man sich das so vorstellen, dass der gesamte textuelle Teil des Internet für das Training verwendet wird – viele Terabytes an Daten. Die Modelle verbessern sich also aus zwei Richtungen: Größere Datensätze sind die eine, und die Modelle vergrößern ist die andere. Beides hilft. 

Wie lange kann man diese Sprachmodelle durch Skalierung weiter verbessern? Erreichen wir Grenzen der Skalierung?

Das weiß man jetzt noch nicht, aber ich glaube schon, dass wir jetzt an dem Punkt sind, an dem Hochskalierung nicht mehr so viel bringt wie früher. Ab jetzt brauchen wir neue Ideen für Sprachmodelle – und neue Technologien. 

Allerdings kann man es oft auch nicht mit Sicherheit sagen: Wenn man nicht zu den IT-Giants gehört, kann man das schwer überprüfen, wo wir gerade stehen. Ein Sprachmodell wie GPT-4 von OpenAI trainiert auf zehntausenden Grafikkarten gleichzeitig. Da gibt es in ganz Europa kein Rechenzentrum, das das durchrechnen könnte. 

Als OpenAI Ende November 2022 den Chatbot ChatGPT veröffentlicht hat, hat dies in der Öffentlichkeit für großes Aufsehen gesorgt. Wie war die Reaktion in der Wissenschaft?

Das war auch für die Wissenschaft erstaunlich. Ich war damals gerade auf einer wissenschaftlichen Konferenz. Dort sind die Leute herumgelaufen und haben ChatGPT am Handy ausprobiert und waren verblüfft. Natürlich haben wir seit 2014 den Trend gesehen, dass Sprachmodelle immer besser und besser wurden. 

Aber erstaunlich war auch, wie leicht zugänglich künstliche Intelligenz dadurch wurde. OpenAI hat dafür gesorgt, dass die Sprachmodelle sehr gut mit Menschen interagieren können. In der Forschung nennt man das “Human Alignment”. Das war etwas Neues. 

Das war übrigens auch ein zusätzlicher Trainingsschritt. ChatGPT hat nicht nur aus bestehenden Texten die Abfolge der Wörter gelernt, sondern es hat auch auf das sogenannte Reinforcement Learning with Human Feedback gesetzt. Es gab bei ChatGPT eine Phase, in der menschliche KI-Trainer dem Modell Feedback gegeben haben.

Dafür gab es allerdings auch Kritik, weil diese Trainer in Kenia rekrutiert wurden und für zwei Dollar in der Stunde gearbeitet haben. Aus wissenschaftlicher Sicht war dies aber ein zusätzlicher Trainingsschritt, über den die Modelle lernen konnten, die menschliche Intention besser zu verstehen.

Kritik gibt es auch der KI-Forschung generell – in Hinblick darauf, dass die Entwicklung außer Kontrolle geraten könnte und Risiken schlagend werden könnten, die jetzt noch nicht absehbar sind. Anfang des Jahres gab es sogar einen Aufruf, die KI-Forschung für ein halbes Jahr auszusetzen. Wie beurteilen Sie dies?

Dieser Call für ein Moratorium ist genau von jenen gekommen, die eigentlich selbst am meisten an dem Thema geforscht haben. Die haben dann auch keine Pause gemacht, sondern weiter Sprachmodelle trainiert.

Das Moratorium wurde wegen angeblich existenziellen Risiken gefordert – einem “Terminator”-Szenario, in dem eine KI die Weltherrschaft übernimmt oder die Menschheit auslöscht. Aber das lenkt einerseits von tatsächlich existenziellen Problemen ab – wie dem Klimawandel oder Atombomben. Andererseits lenkt es auch von den wirklichen Problemen ab, die mit den KI-Systemen schon heute bestehen: Es kommt zu unterschiedlichen Verzerrungen – etwa kann es sein, dass Modelle Frauen schlechter behandeln oder Vorurteile gegenüber bestimmten Bevölkerungsgruppen übernehmen, weil diese in Texten im Internet, anhand derer sie trainiert wurden, enthalten waren. 

Für KI-Systeme legt man außerdem immer Ziele fest – beispielsweise, dass sie eine gute Wortabfolge geben. Wenn Sprachmodelle mit “I am as an AI Agent” antworten, verstärkt das unsere Tendenz zum Anthropomorphismus, also dass wir Dingen menschliche Eigenschaften zuschreiben.

Durch Filme wie “Terminator” kommt es zu dieser Idee, dass KI-Systeme eigene Ziele haben und den Menschen möglicherweise unterwerfen wollen – weil eben Menschen über anderen Menschen herrschen wollen. Ein KI-System will das aber gar nicht. “Intelligenz” an sich bedeutet überhaupt nicht, dass man über andere herrschen möchte – das ist auch wieder ein Anthropomorphismus. 

Für KI-Systeme geben wir die Ziele vor – eben für ein Sprachmodell, dass sie eine Wortfolge gut vorhersagt. Hier gibt es natürlich das Risiko des Missbrauchs – etwa dass so ein System eingesetzt wird, um Fake News zu erzeugen. Da ist ein tatsächliches Problem, da ist aber wieder der Mensch dahinter. Es ist nicht das Ziel des KI-Systems selbst, Fake News zu erzeugen.

Ist das Konzept einer Artificial General Intelligence (AGI) für Sie damit in den Bereich Science Fiction einzuordnen – oder ist eine solche doch ein Szenario, das in den nächsten Jahrzehnten eintreten könnte?

Ja, ich glaube, dass das ein Science-Fiction-Konzept ist, das sich wieder sehr an dem Konzept menschlicher Intelligenz anlehnt. Wenn KIs besser werden, bezieht sich das immer nur auf bestimmte Bereiche. In der Bilderkennung haben KIs menschliche Qualität schon erreicht. Teilweise ist es sogar so, dass es uns als Menschen bei Bildern, auf denen viele ähnliche Dinge sind, schwer gefällt, irgendwas zu erkennen. Für eine KI ist das dagegen einfach.

Es gibt Dinge, die für Menschen extrem einfach sind und für eine KI wahnsinnig schwer und das auch noch lange bleiben werden. Das betrifft zum Beispiel motorische  Fähigkeiten – sehen Sie sich einmal an, wenn ein Roboter etwas aufheben muss, das am Boden liegt. 

Dass sich eine KI immer weiterentwickelt und dann exakt die menschliche Intelligenz erreicht – das wird so nicht ablaufen. Es wird zuerst Zwischenstufen geben, aber nicht den einen Moment, an dem man sagt, jetzt ist eine AGI erreicht oder nicht. In manchen Bereichen, wie zum Beispiel Bilderkennung oder Schach oder Go spielen, ist KI sogar dem Menschen schon überlegen.

Ist es somit aus Ihrer Sicht illusorisch, wenn davon gesprochen wird, dass künstliche Intelligenz irgendwann ein Bewusstsein entwickeln könnte?

Wenn Sie am Computer zwei Matrizen multiplizieren, sagt niemand, dass ein Ergebnis ein leichtes Bewusstsein habe. Genau das ist, was jetzt passiert. In einem neuronalen Netz werden sehr viele Matrix-Multiplikationen vorgenommen. Aber dass das Modell deswegen ein Bewusstsein entwickeln soll, ist meiner Meinung nach ein starker Anthropomorphismus.

Wenn man mit ChatGPT interagiert, erhält man häufig Antworten, die mit der Phrase “As an AI Agent,…” eingeleitet werden. Das personifiziert sehr stark und versucht uns bis zu einem gewissen Grad glauben zu machen, dass wir wirklich mit einer Person interagieren. Ich hätte es daher bevorzugt, wenn ChatGPT in solchen Fällen “The Large Language Model…” antworten würde. 

Wenn die gängigen aktuellen KI-Modelle nur mehr von den Tech-Giganten betrieben werden können, weil nur diese die notwendige Rechenpower haben – bedeutet dies, dass künftig einige wenige Large Language Models den Markt dominieren werden und diese auf alle möglichen Use Cases angewendet werden? Oder ist zu erwarten, dass Unternehmen eigene LLMs für spezifische Fälle trainieren und sich ebenfalls damit etablieren können? 

Das ist eine wirklich entscheidende Frage, über die ich mir auch schon viele Gedanken gemacht habe. Ich denke, dass es darauf hinauslaufen wird, dass es kleine Anzahl von diesen Modellen geben wird. Die Entwicklung könnte hier ähnlich verlaufen wie bei Suchmaschinen. Auch hier gab es am Anfang viele und mittlerweile sind es nur mehr einige wenige. Ich würde schätzen, dass am Ende drei bis fünf LLMs übrig bleiben, die die Leute verwenden. 

Die Frage ist dann: Wer sind diese Anbieter? OpenAI ist definitiv dabei. Schön wäre aber, wenn man es in Europa schaffen würde, ein europäisches Sprachmodell zu bekommen, dass dann zu europäischer Infrastruktur wird, die von Unternehmen verwendet werden kann. Ein Startup könnte dann also sagen, ich nehme dieses europäische Sprachmodell und passe es für meinen Einsatzzweck an.

Müsste ein solches europäisches Modell öffentlich finanziert werden? 

Die Finanzierung könnte zum Beispiel zum Teil öffentlich geschehen und zum Teil über private Investoren, etwa in Form einer Public-Private-Partnership. Wichtig ist jedenfalls immer die Rechenkapazität, die man braucht, um ein großes Sprachmodell zu entwicklen. Zwar gibt es auch in Europa Rechenzentren mit ein paar tausend Grafikkarten, aber die sind aus kleineren Einheiten aufgebaut und erlauben es normalerweise nicht, ein großes Sprachmodell auf allen Grafikkarten gleichzeitig zu trainieren.

Deine ungelesenen Artikel:
17.09.2024

“Wir müssen durchhalten und nicht nach einem Jahr ungeduldig werden”

Finanzierungslücken, Schutzrechte und fehlendes Risikokapital. Die österreichische Startup- und VC-Landschaft steht vor einigen Hürden, die es souverän zu bewältigen gilt. Wie das am besten möglich ist und was man in puncto Risikobereitschaft von Übersee lernen kann, wurde im Rahmen der diesjährigen Technology Talks diskutiert.
/artikel/wir-muessen-durchhalten-und-nicht-nach-einem-jahr-ungeduldig-werden
17.09.2024

“Wir müssen durchhalten und nicht nach einem Jahr ungeduldig werden”

Finanzierungslücken, Schutzrechte und fehlendes Risikokapital. Die österreichische Startup- und VC-Landschaft steht vor einigen Hürden, die es souverän zu bewältigen gilt. Wie das am besten möglich ist und was man in puncto Risikobereitschaft von Übersee lernen kann, wurde im Rahmen der diesjährigen Technology Talks diskutiert.
/artikel/wir-muessen-durchhalten-und-nicht-nach-einem-jahr-ungeduldig-werden
Im Wiener Museumsquartier lud das AIT zu den Technology Talks. Hier im aws-Workshop mit (v.l.n.r.) Moderator Dejan Jovicevic, Georg Kopetz, Birgit Hochenegger-Stoirer, Markus Wanko, Anna Pölzl, Manon Sarah Littek und Bernhard Sagmeister (c) Tanja Spennlingwimmer, aws

Alle Jahre wieder versammeln sich heimische und internationale Köpfe der Tech- und Wirtschaftsbranche zu den Technology Talks des Austrian Institute of Technology (AIT). Heuer allerdings mit einem besonderen Pivot: Die Technologiegespräche luden in das Wiener Museumsquartier.

Das Highlight der diesjährigen Gespräche: Die Panels und Workshop-Sessions mit heimischen und internationalen Innovationspionieren. Thematisch bewegte man sich nicht nur im makroökonomischen Innovationsfeld auf internationaler Ebene, sondern richtete auch einen gezielten Blick auf treibende Kräfte des heimischen Ökosystems.

So lud die Austria Wirtschaftsservice GmbH (aws) im Rahmen einer zweiteiligen Workshop-Session Key Player der heimischen und internationalen Startup-, Spinoff- und VC-Szene zur Diskussion auf die Bühne. Unter dem Titel “Startups und Spinoffs: Von der Gründer:innen-Idee zur VC-Finanzierung” wurde in zwei 90-minütigen Sessions über folgende Fragestellung diskutiert:

Warum bleibt Österreich im internationalen Gründungswettlauf zurück? Was braucht es, um ein starkes Ökosystem für akademische Spinoffs zu schaffen und Anforderungen von Risikokapitalgeber:innen gerecht zu werden? Und: Wie kann der Wirtschaftsstandort Europa im internationalen Wettbewerb mithalten? Die nahezu einstimmige Antwort: Länder- und branchenübergreifender Zusammenarbeit sowie mehr Mut zum Risiko.

Die Workshop Session 2 mit (v.l.n.r.) Moderator Dejan Jovicevic, Patrik Cesky, Christian Hoffmann, Dorothea Pittrich, Alexander Svejkovsky, Doris Agneter, Birgit Mitter und Johannes Bintinger (c) Tanja Spennlingwimmer, aws

Zur Workshop-Session geladen wurden Bernhard Sagmeister, Geschäftsführer der Austria Wirtschaftsservice GmbH, sowie Patrik Cesky, Geschäftsführer des aws Gründungsfonds. Außerdem zu Gast waren Doris Agneter, Geschäftsführerin von tecnet equity, Helmut Schönenberger, CEO der UnternehmerTUM GmbH der TU München, Birgit Hochenegger-Stoirer, Vizerektorin der Medizinischen Universität Innsbruck, Manon Sarah Littek des Green Generation Fund, Georg Kopetz, Geschäftsführer von TTTech, Christian Hoffmann der TU Wien sowie Alexander Svejkovsky, Managing Director des AIT.

Die Startup- und Spinoff-Szene wurde unter anderem von Anna Pölzl, Co-Founderin und CEO von nista.io, Markus Wanko von xISTA, Dorothea Pittrich von CellEctric, Birgit Mitter, Co-Founderin von Ensemo und Johannes Bintinger, CEO von n-Ink, vertreten.

“Wenn wir stehen bleiben, haben wir schon verloren”

“Lauft einfach los und macht. Wir müssen ständig rennen. Wenn wir stehen bleiben, haben wir schon verloren.” Klare Worte von Helmut Schönenberger, CEO der UnternehmerTUM GmbH der TU München, des Zentrums für Entrepreneurship in der Academia. Zum Start der Workshop-Reihe appelliert der CEO an mehr Tatendrang in der Universitätslandschaft: Ausgründungen und die Möglichkeit auf Entrepreneurship während oder nach der Ausbildung sollten in universitären Curricula noch breiteren Einklang finden. Erkenntnisse aus akademischer Forschung bringen großes Potenzial für Wirtschaft und Industrie.

Dennoch sieht Schönenberger eine Hürde im komplikationsfreien Zusammenspiel zwischen Academia und Entrepreneurship: Zugänge zu Risikokapital brauchen mehr Niederschwelligkeit und deutlich mehr Risikobereitschaft. Nicht zuletzt in ähnlicher Weise, wie sie in der US-amerikanischen VC-Landschaft präsent ist. Belegen lässt sich eine Disbalance investierter VC-Summen auch statistisch: Schönenberger zufolge käme das “meiste Geld aus den USA”.

Startups und Spinoffs noch besser “pushen”

Die zentrale Herausforderung: Startups und Spinoffs im Ökosystem noch besser zu pushen. Hier setzt als einer der wichtigsten heimischen Key Player die Austria Wirtschaftsservice (aws) an. Mit ihren Pre-Seed- und Seed-Förderprogrammen unterstützt sie Ausgründungen mehrdimensional. Strategisch und finanziell wird Unterstützung in der Frühphase geboten.

So half man unter anderem dem Tullner Startup und AIT Spinoff Ensemo rund um Birgit Mitter. Die Founderin sprach auch im Rahmen des Workshops über die Unterstützung durch die aws-Pre-Seed-Förderung und des niederösterreichischen Inkubators accent.

Inwiefern sich die Situation allerdings vonseiten der Founder:innen – teils frisch aus Universitäten und unbewusst dessen, welche Möglichkeiten im Startup- und Spinoff-Feld warten – gestaltet, wurde weiter im Rahmen der Workshop-Session diskutiert.

“Das Gründen war wenig auf meinem Radar”

Eine wichtige Stimme war dabei die nista.io-Founderin Anna Pölzl: Die TU-Absolventin hat ein Spinoff gegründet, ohne “im Studium je das Wort Startup gehört zu haben”. “Ich bin vor fünf Jahren auf der TU fertig geworden und habe meinen Co-Founder aus Zufall kennengelernt. Davor hab ich im Studium im Grunde nichts von Startups mitbekommen. Das Gründen war dementsprechend wenig auf meinem Radar”, erinnert sich die Founderin.

Schließlich kam es doch zur Gründung ihres EnergyTech-Startups. Allerdings sprang sie dabei “naiv ins kalte Wasser” – mangels Vorwissen. In ähnlicher Situation befand sich auch Birgit Mitter mit ihrem AIT-Spinoff Ensemo. Auch hierbei halfen Inkubatoren und die Pre-Seed-Förderung durch die aws dabei, sich vom “klassischen Wissenschaftsdenken und der akademischen Detailverliebtheit” zu lösen und unternehmerische Skills aufzubauen.

Eine nicht unwesentliche Rolle schreibt Mitter auch der Unterstützung des Startup Centers des AIT Austrian Institute of Technology zu: “Abgesehen von der tollen Unterstützung vonseiten des AITs sowie heimischer Inkubatoren was Betriebswirtschaft, Führung und unseren Proof of Concept anbelangt, haben wir vor allem eines gelernt: Gewisse Dinge brauchen Zeit. Und das Wichtigste ist, dass unser Produkt funktioniert. Wie und warum, das ist den Kunden egal. Hauptsache, es funktioniert.”

Mittlerweile hat sich auch Anna Pölzl zu einer der wichtigsten Startup-Founder:innen unseres Landes entwickelt. Mit einigen Jahren Erfahrung im Gepäck spricht die CEO die “verängstigte VC-Mentalität” in Österreich an: “Hierzulande sind wir schon sehr vorsichtig und von Angst getrieben – was in der VC-Szene ja durchaus ein Vorteil sein kann. Allerdings merken wir – gerade in puncto Fehlerkultur und Optimismus – viel mehr Potenzial, wenn wir über die Grenzen hinaus schauen.”

“Denkt ihr überhaupt groß genug?”

Aus Erfahrung verrät Pölzl einen “Geheimtrick” heimischer Startup-Founder:innen für Pitches vor ausländischen Investor:innen: “Unter österreichischen Gründer:innen ist das so ein Ding, dass man zwei Pitch Decks vorbereitet: Einmal für heimische und einmal für internationale Pitches. Hierzulande haben wir nämlich die Erfahrung gemacht: Wenn man zu hohe Summen fordert, wird man schief angeschaut. International wird man für dieselbe Summe allerdings auch schief angeschaut – weil die geforderte Summe zu niedrig ist. Dann hört man meistens: ‘Denkt ihr überhaupt groß genug?’”

Was Pölzl anspricht, könnte dem heimischen Ökosystem langfristig zum Verhängnis werden: Startups wandern ab, wenn sie anstreben, zu wachsen. Das liegt schlichtweg daran, dass es hierzulande an Wachstums- und Expansionskapital für Scaleups mangelt. Die Risiko- und Investitionsbereitschaft sei Übersee höher – sprich: In den USA und China, mit Großbritannien als Sprungbrett.

Das Problem, das im Zuge der Workshops aufgegriffen wird, ist kein neues. Dennoch muss darüber gesprochen und aktiv Maßnahmen gesetzt werden, um das Abwandern heimischer Scaleups zu verhindern, Innovation in Europa zu beheimaten und fortan auch Fachkräfte anzuziehen, um dem Wirtschaftskontinent Europa jenen Status zu verleihen, den er verdient hat. Nämlich: Eine Vorreiterrolle.

Viele Vorreiter befänden sich aktuell allerdings vermehrt in China und den USA. Unter anderem aufgrund höherer Risikobereitschaft, unter anderem aber auch aufgrund flexiblerer Regulierungen.

Mehr Verständnis in der Gesellschaft

Auch dazu brauche es hierzulande deutlich mehr Innovationsaffinität – vor allem in puncto Bio- und HealthTec. Und ein breites Verständnis für branchen- und sektorübergreifende Datenanalysen wie jener von anonymisierten Gesundheitsdaten. Dazu ergänzt Bernhard Sagmeister, Geschäftsführer der aws: „Wir alle sollten durch konsequente Kommunikation überzeugender Beispiele in der Breite der Gesellschaft mehr Verständnis für Innovation als den Treiber bzw. die Garantie unseres Wohlstandes erzeugen.”

Ähnlicher Ansicht ist Birgit Hochenegger-Stoirer, Vizerektorin für Finanzen und Digitalisierung an der Medizinischen Universität Innsbruck:

“Wir sind uns bewusst, dass der Umgang mit Gesundheitsdaten ein kritisches Thema ist. Auf der anderen Seite muss dieses Thema großflächig kommuniziert und Verständnis dafür geschaffen werden. Gesundheitsdaten werden anonymisiert und verantwortungsvoll gehandhabt – und können die Zukunft unseres Innovationssystems deutlich mitgestalten. Anonymisierte Daten müssen nach einer klar definierten Governance an die Industrie weitergegeben werden, um Austausch, Forschungsfortschritt und Innovation zu schaffen. Die universitäre Grundlagenforschung muss sich in Richtung klinische Forschung entwickeln. Und dafür ist ein Rechtsrahmen notwendig, den es aktuell noch nicht gibt.”

“Wir müssen das Rad nicht neu erfinden”

Unis und Institute können den Schritt allerdings nicht alleine schaffen, sondern: Es braucht Hilfe vonseiten Politik und heimischer Wirtschaftstreiber. “Gerade Europa hat ein regulatorisches Mindset. Startups, Industrie und Universitäten müssen stärker zusammenarbeiten, denn BioTech wird immer wichtiger und endet nicht vor dem Krankenbett.”

Ein wesentlicher Appell der Vizerektorin: “Ich würde davor warnen, dass wir jetzt alle glauben, wir müssen das Rad neu erfinden. Wir dürfen keine Aliens produzieren, die für die Industrie unverwertbar sind. Lasst uns über den österreichischen Tellerrand hinausdenken. Die großen Player und Geldgeber sitzen außerhalb von Österreich. Wir müssen uns zusammenschließen und kollaborative Modelle entwickeln, damit wir für ausgewählte Branchen gute Lösungen haben.”

Im Lichte der Spinoff- und Forschungsthematik kam auch das Thema Intellectual Property (IP) zur Sprache. Die Vizerektorin appelliert an “gute Development-Möglichkeiten” und eine “aktive Transaktionskultur”, um geistiges Eigentum im Universitäts- und Industriekontext verwerten zu können. “Dabei dürfen wir nicht nur innerhalb der Uni- oder Förderlandschaft denken”, so Hochenegger.

“Sobald Skalierung ein Thema ist, gehen Startups hierzulande etwas unter. Unis müssen sich dafür professioneller aufstellen. Und zwar in Gremien, die nicht nur aus der Academia, sondern auch aus der Wirtschaft kommen. Dazu braucht es: Commitment, klare Transparenz und Nachhaltigkeit. Wenn wir in der Zusammenarbeit erfolgreich sein wollen, müssen wir durchhalten und nicht nach einem Jahr ungeduldig werden.”

Hier zeigt sich die aws Spinoff-Initiative als ein nationaler Wegweiser, der bereits einen erheblichen Mehrwert in puncto Awareness- und Transparenz-Steigerung von universitären Ausgründungen geschaffen hat. Die aws Spinoff Initiative Modul 1 für Hochschulen wurde im Rahmen der Workshops von den beiden anwesenden Hochschulvertreter:innen, namentlich Birgit Hochenegger-Stoirer der Med Uni Innsbruck und Christian Hoffmann der TU Wien, als sehr positiv hervorgehoben. So hieß es: “Hochgradige Forschung wird dank frühzeitiger Finanzierung durch die aws gut begleitet. Wir brauchen weitere Erfolgsmodelle wie diese, die zeigen, dass Ausgründungen unkompliziert, wirtschaftsfreundlich und innovationsgetrieben auch hierzulande funktionieren.”

“Das Ziel ist nicht nur Geld, sondern das Schaffen einer gemeinsamen Technologie”

Ganz so schlecht steht es um die heimische VC-Szene dann doch nicht – darüber spricht Anna Pölzl aus Erfahrung: “Es findet ein Umdenken statt: Risikokapital und Möglichkeiten des Corporate Venture Capitals werden vor allem in Hinblick auf strategische Partnerschaften immer wichtiger. Das Hauptziel ist nicht nur Geld, sondern das Schaffen einer gemeinsamen, zukunftsweisenden Technologie.”

Was Pölzl anspricht, lässt sich auch als allgemeiner Tenor der aws-Workshop-Sessions im Rahmen der diesjährigen Technology Talks wiedergeben: Es braucht mehr Kollaboration. Auch Bernhard Sagmeister, Geschäftsführer der Austria Wirtscaftsservice GmbH, stellt sich hinter dieses Credo.

Für fundierte, branchenübergreifende Zusammenarbeit sei Österreich allerdings zu klein. Sagmeister appelliert an länderübergreifende Zusammenarbeit auf Europaebene – auch in puncto Risikokapital. Wenn es zu einem allgemeinen Dachfonds kommen sollte, macht Sagmeister deutlich: „Für den Erfolg eines Dachfonds ist ein professionelles Management Voraussetzung.“

Sie ist nicht zu überlesen: Die Message, die heimische Wirtschafts- und Forschungstreibende an unser Ökosystem senden. Länder- und Sektorübergreifende Kollaboration ist gefragt. Fragmentierung sei zwar ein Zeichen von “Fokus und Spezialisierung”, so Doris Agneter, Geschäftsführerin von tecnet equity, sei aber auch ein Hindernis für überregionale Synergienutzung und Kollaboration.

“Wir wollen Anker in der Seed- bis Series-A-Phase sein”

Wie die aws mit Herausforderungen dieser Art umgeht, erklärt Patrik Cesky, Geschäftsführer des aws Gründungsfonds, abschließend in folgenden Worten: „Wir wollen Anker-Investor in der Seed- bis Series-A-Phase sein und internationale Investoren dazu bewegen gemeinsam mit uns in österreichische Innovation zu investieren. Es gibt in Österreich insgesamt nicht sehr viele Frühphaseninvestments im Jahr. Deswegen fokussieren wird nicht nur auf bestimmte Industrien, sondern brauchen etwas Pragmatismus bei der Auswahl der Investments. So leisten wir im Rahmen unserer Möglichkeiten, den bestmöglichen Beitrag, um Startups in Frühphasen zu unterstützen und weiterzuentwickeln. Alles, was darüber hinausgeht, braucht einen funktionierenden Kapitalmarkt mit privaten Fonds zur Anschluss- und Wachstumsfinanzierung.”

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

KI-Experte Klambauer über Large Language Models: “Brauchen jetzt neue Ideen”

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

KI-Experte Klambauer über Large Language Models: “Brauchen jetzt neue Ideen”

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

KI-Experte Klambauer über Large Language Models: “Brauchen jetzt neue Ideen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

KI-Experte Klambauer über Large Language Models: “Brauchen jetzt neue Ideen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

KI-Experte Klambauer über Large Language Models: “Brauchen jetzt neue Ideen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

KI-Experte Klambauer über Large Language Models: “Brauchen jetzt neue Ideen”

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

KI-Experte Klambauer über Large Language Models: “Brauchen jetzt neue Ideen”

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

KI-Experte Klambauer über Large Language Models: “Brauchen jetzt neue Ideen”

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

KI-Experte Klambauer über Large Language Models: “Brauchen jetzt neue Ideen”