13.09.2017

Startup Barometer 2017: Graz als Gründungsstandort im Aufschwung

Das Grazer Startup Barometer wird seit 2014 durchgeführt. 2017 zeigt es eine deutliche Verbesserung des Gründungsstandortes Graz auf.
/artikel/startup-barometer-2017-graz-als-gruendungsstandort-im-aufschwung
(c) Fischer: Die Präsentation des Startup Barometers Graz 2017

Vor allem wenn es um die Gesamtbetrachtung der Szene geht, zeigt sich eine Verbesserung in Graz – das geht aus den Ergebnissen des Grazer Startup Barometers 2017 hervor. Auf einer Skala von 1 bis 7 wurde Graz als Gründungsstandort in diesem Jahr durchschnittlich mit 4,7 bewertet, 2014 lag der Wert noch bei 3,94.

Mehr Optimismus

Für die befragten Personen aus der Grazer Startup-Szene sind hinsichtlich ihrer Gründungsmotivation die Selbstverwirklichung (37 Prozent) und die „geniale Idee“ (31 Prozent) die bedeutendsten Treiber. Vor allem gehen die Grazer Startups optimistischer in die Zukunft: 54 Prozent der Gründer trauen sich in den kommenden drei Jahren ein schnelles Wachstum zu. 2016 waren dies nur 47 Prozent.

Eigenfinanzierung vor Investments

Auch hinsichtlich der Finanzierungssituation ist eine Verbesserung feststellbar: Lag die Bewertung auf der siebenteiligen Skala 2014 noch bei 2,57 und 2016 auf 3,16, so lag sie heuer bei durchschnittlich 3,53. 52 Prozent der Finanzierungen, die von Grazer Startups aufgestellt wurden, waren höher als 50.000 Euro. Dennoch bleibt die Eigenfinanzierung bei Startups in Graz die wichtigste Finanzierungsform in den ersten drei Jahren (84 Prozent).

Redaktionstipps

Mehr internationale Strahlkraft gewünscht

Die Befragten sehen vor allem die hohe Lebensqualität, die aktive Gründercommunity, die Größe der Stadt und die Qualität der Hochschulen und Universitäten als bedeutende Vorteile, um in Graz zu gründen. Als Standortnachteile in Graz betrachten die Befragten unter anderem die internationale Positionierung des Standortes, die Größe der Szene, die Vernetzung zu anderen Städten und die Situation der Infrastruktur sowie die Verkehrsanbindung. Als Verbesserungsvorschläge wurden am häufigsten das Zeigen einer internationalen Strahlkraft, die Stärkung der Infrastruktur und Verkehrsanbindung und die Förderung von Potenzialen genannt.

Das Netzwerk ausbauen

„Die Grundstimmung ist in Graz optimistisch, trotzdem zeigen sich einige Optimierungspotenziale, an denen wir allerdings schon arbeiten. Unser Ziel ist es, Graz als unübersehbaren Hub für qualitativ hochwertige Startups in der erweiterten Region zu etablieren“, sagt Bernhard Weber vom ZWI-Graz. Auch Verena Klampferer vom IdeenTriebwerk Graz meint: „Als Vertreter der Startup-Szene wollen wir für Gründerinnen und Gründer die nationalen und internationalen Beziehungen weiter intensivieren. Das Vernetzen der kreativsten und motiviertesten Köpfe der Region hilft uns dabei.”

Im Zuge der Umfrage wurden zwischen 10. Juli und 06. August 2017 160 Personen per Online-Fragebogen zu ihrer Meinung zum Gründungsstandort befragt. Zur Teilnahme aufgerufen waren Gründer und Gründungsinteressierte, Mitarbeiter von Startups, Investoren, Startup-Consultants und Studierende, die mit ihrem Feedback Verbesserungspotenziale für den Standort offenlegten. Das Grazer Startup Barometer ist eine Initiative des IdeenTriebwerk Graz in Kooperation mit dem Zentrum für Entrepreneurship und angewandte BWL der Karl-Franzens-Universität und dem Company Builder Up to Eleven.

Deine ungelesenen Artikel:
12.12.2024

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

Das Linzer Startup NXAI von KI-Koryphäe Sepp Hochreiter veröffentlicht sein xLSTM 7B Modell - mit großen Versprechungen.
/artikel/nxai-xlstm-7b
12.12.2024

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

Das Linzer Startup NXAI von KI-Koryphäe Sepp Hochreiter veröffentlicht sein xLSTM 7B Modell - mit großen Versprechungen.
/artikel/nxai-xlstm-7b
Sepp Hochreiter | (c) NXAI
Sepp Hochreiter | (c) NXAI

Das Team des Linzer Startups NXAI rund um KI-Pionier und JKU-Linz-Professor Sepp Hochreiter, der als Chief Scientist fungiert, und CEO Albert Ortig hat es bereits gezeigt: Auf seine Ansagen folgen auch entsprechende Ergebnisse. Im Mai dieses Jahrs veröffentlichte das Unternehmen wenige Monate nach seiner Gründung sein erstes Large Language Model (LLM). Nun folgte, wie bereits im August angekündigt, die nächste Version: das “xLSTM 7B Modell”.

xLSTM 7B deutlich kleiner als die LLMs der großen Player

Wer nun einen österreichischen ChatGPT-Konkurrenten erwartet, wird allerdings enttäuscht. Das NXAI-Modell richtet sich nämlich nicht an die breite Öffentlichkeit und weist deutliche Unterschiede zu den Modellen der großen Player auf. Mit sieben Milliarden Parametern (7B), auf deren Basis es trainiert wurde, ist es maßgeblich kleiner als die bekannten Modelle – GPT-3 von OpenAI wurde etwa mit 175 Milliarden Parametern trainiert, bei GPT-4 wurde die genaue Zahl nicht kommuniziert.

NXAI setzt auf andere Architektur

Im Unterschied zu den großen Playern soll jedoch auch die Stärke von xLSTM 7B liegen. Aufbauend auf der von Sepp Hochreiter bereits in den 1990er-Jahren mitentwickelten Long Short-Term-Memory-Technologie (LSTM) setzt das Modell auf eine andere Architektur, als die bei den bekannten Modellen genutzte “Transformer”-Technologie.

“Im Gegensatz zur Transformer-Technologie steigen die xLSTM-Berechnungen nur linear mit der Textlänge und brauchen im laufenden Betrieb weniger Rechenleistung. Das ist ein großer Vorteil, da komplexe Aufgaben viel mehr Text sowohl zur Aufgabenbeschreibung als auch zur Lösung brauchen”, heißt es dazu von NXAI. xLSTM 7B sei dadurch deutlich effizienter, schneller und brauche weniger Rechenressourcen als andere Large Language Models. Anhand diverser Benchmarks, etwa Massive Multitask Language Understanding (MMLU), vergleicht das Startup sein Modell mit anderen Modellen in ähnlicher Größe (siehe Grafik) und sieht seinen Claim bestätigt.

Hochreiter: “Es ist das energieeffizienteste Modell in der Welt der Large Language Models mit einer schnellen Inferenz”

“Unsere Skalierungsvorhersagen aus unserer Arbeit sind eingetreten. Mit dem xLSTM 7B Modell präsentieren wir das beste Large Language Model (LLM), das auf rekurrenten neuronalen Netzen (RNNs) basiert. Es ist das energieeffizienteste Modell in der Welt der Large Language Models mit einer schnellen Inferenz”, kommentiert Hochreiter.

Zielgruppe für NXAI vor allem Industrie und Robotik

NXAI richtet das Modell klar auf den B2B-Bereich und hier primär auf den Industrie-Sektor aus. “Ich sehe großes Potenzial für xLSTM in der Robotik, weil es in der Inferenz deutlich schneller und speichereffizienter ist”, meint Hochreiter. Seit der Erstveröffentlichung der Architektur im Frühjahr hätten bereits viele Entwickler:innen Lösungen auf deren Basis vorgestellt. “Besonders KI-Anwendungen im Edge- und Embedded-Bereich profitieren enorm von der hohen Effizienz und Geschwindigkeit unseres Modells. Jeder Forscher weltweit kann das xLSTM 7B Modell für seine Arbeit nutzen. Es ist ein Modell aus Europa für die Welt“, so Hochreiter.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Startup Barometer 2017: Graz als Gründungsstandort im Aufschwung

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Startup Barometer 2017: Graz als Gründungsstandort im Aufschwung

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Startup Barometer 2017: Graz als Gründungsstandort im Aufschwung

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Startup Barometer 2017: Graz als Gründungsstandort im Aufschwung

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Startup Barometer 2017: Graz als Gründungsstandort im Aufschwung

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Startup Barometer 2017: Graz als Gründungsstandort im Aufschwung

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Startup Barometer 2017: Graz als Gründungsstandort im Aufschwung

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Startup Barometer 2017: Graz als Gründungsstandort im Aufschwung

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Startup Barometer 2017: Graz als Gründungsstandort im Aufschwung