12.12.2024
SEPP HOCHREITER

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

Das Linzer Startup NXAI von KI-Koryphäe Sepp Hochreiter veröffentlicht sein xLSTM 7B Modell - mit großen Versprechungen.
/artikel/nxai-xlstm-7b
Sepp Hochreiter | (c) NXAI
Sepp Hochreiter | (c) NXAI

Das Team des Linzer Startups NXAI rund um KI-Pionier und JKU-Linz-Professor Sepp Hochreiter, der als Chief Scientist fungiert, und CEO Albert Ortig hat es bereits gezeigt: Auf seine Ansagen folgen auch entsprechende Ergebnisse. Im Mai dieses Jahrs veröffentlichte das Unternehmen wenige Monate nach seiner Gründung sein erstes Large Language Model (LLM). Nun folgte, wie bereits im August angekündigt, die nächste Version: das “xLSTM 7B Modell”.

xLSTM 7B deutlich kleiner als die LLMs der großen Player

Wer nun einen österreichischen ChatGPT-Konkurrenten erwartet, wird allerdings enttäuscht. Das NXAI-Modell richtet sich nämlich nicht an die breite Öffentlichkeit und weist deutliche Unterschiede zu den Modellen der großen Player auf. Mit sieben Milliarden Parametern (7B), auf deren Basis es trainiert wurde, ist es maßgeblich kleiner als die bekannten Modelle – GPT-3 von OpenAI wurde etwa mit 175 Milliarden Parametern trainiert, bei GPT-4 wurde die genaue Zahl nicht kommuniziert.

NXAI setzt auf andere Architektur

Im Unterschied zu den großen Playern soll jedoch auch die Stärke von xLSTM 7B liegen. Aufbauend auf der von Sepp Hochreiter bereits in den 1990er-Jahren mitentwickelten Long Short-Term-Memory-Technologie (LSTM) setzt das Modell auf eine andere Architektur, als die bei den bekannten Modellen genutzte “Transformer”-Technologie.

“Im Gegensatz zur Transformer-Technologie steigen die xLSTM-Berechnungen nur linear mit der Textlänge und brauchen im laufenden Betrieb weniger Rechenleistung. Das ist ein großer Vorteil, da komplexe Aufgaben viel mehr Text sowohl zur Aufgabenbeschreibung als auch zur Lösung brauchen”, heißt es dazu von NXAI. xLSTM 7B sei dadurch deutlich effizienter, schneller und brauche weniger Rechenressourcen als andere Large Language Models. Anhand diverser Benchmarks, etwa Massive Multitask Language Understanding (MMLU), vergleicht das Startup sein Modell mit anderen Modellen in ähnlicher Größe (siehe Grafik) und sieht seinen Claim bestätigt.

Hochreiter: “Es ist das energieeffizienteste Modell in der Welt der Large Language Models mit einer schnellen Inferenz”

“Unsere Skalierungsvorhersagen aus unserer Arbeit sind eingetreten. Mit dem xLSTM 7B Modell präsentieren wir das beste Large Language Model (LLM), das auf rekurrenten neuronalen Netzen (RNNs) basiert. Es ist das energieeffizienteste Modell in der Welt der Large Language Models mit einer schnellen Inferenz”, kommentiert Hochreiter.

Zielgruppe für NXAI vor allem Industrie und Robotik

NXAI richtet das Modell klar auf den B2B-Bereich und hier primär auf den Industrie-Sektor aus. “Ich sehe großes Potenzial für xLSTM in der Robotik, weil es in der Inferenz deutlich schneller und speichereffizienter ist”, meint Hochreiter. Seit der Erstveröffentlichung der Architektur im Frühjahr hätten bereits viele Entwickler:innen Lösungen auf deren Basis vorgestellt. “Besonders KI-Anwendungen im Edge- und Embedded-Bereich profitieren enorm von der hohen Effizienz und Geschwindigkeit unseres Modells. Jeder Forscher weltweit kann das xLSTM 7B Modell für seine Arbeit nutzen. Es ist ein Modell aus Europa für die Welt“, so Hochreiter.

Deine ungelesenen Artikel:
vor 7 Stunden

Benjamin Ruschin steigt bei Wiener Sicherheitsfirma Halevi Partner ein

Der Business Angel und Multi-Founder Ben Ruschin beteiligt sich in einem neuen Feld: Fortan ist er bei der Sicherheitsakademie Halevi Partner an Bord.
/artikel/benjamin-ruschin-steigt-bei-wiener-sicherheitsfirma-halevi-partner-ein
vor 7 Stunden

Benjamin Ruschin steigt bei Wiener Sicherheitsfirma Halevi Partner ein

Der Business Angel und Multi-Founder Ben Ruschin beteiligt sich in einem neuen Feld: Fortan ist er bei der Sicherheitsakademie Halevi Partner an Bord.
/artikel/benjamin-ruschin-steigt-bei-wiener-sicherheitsfirma-halevi-partner-ein
Rony Halevi, Ben Ruschin und Richard Lanczmann © Katharina Schiffl

Benjamin Ruschin, Tech-Investor und Co-Founder von Big Cheese Ventures, WeAreDevelopers und Founders of Europe, beteiligt sich bei der Wiener Sicherheitsfirma Halevi Partner. Diese positioniert sich als “Sicherheitsakademie”. Sie umfasst also Leistungen rund um Sicherheitstraining, -ausbildung und -simulation sowie Verteidigungs- und Kampftechniken.

“Realistische Bedingungen” bei Halevi Partner

Die Akademie stammt – einer Pressemeldung zufolge – aus “dem Umfeld von Elite-Kampfeinheiten”. Das Unternehmen sitzt laut Medienberichten im 22. Wiener Gemeindebezirk in einer ehemaligen Speiseölfabrik.

Gegründet wurde Halevi Partner am ersten Dezember 2018 – damals unter dem Namen “Octopus Advanced Security Training”. Das Founderteam umfasst die beiden Sicherheitsexperten Richard Lanczmann und Aharon “Rony” Halevi.

2.000 Quadratmeter Trainingsfläche

Das Ausbildungszentrum für Selbstverteidigung und Personal Security erstreckt sich auf einer Fläche von 2.000 Quadratmetern. Dort herrschen “realistische Trainingsbedingungen”, die zu “internalisierten Abläufen” führen sollen, wie die Website von Halevi Partner preisgibt. Auf dem Gelände sollen sowohl Privatpersonen als auch professionelle Sicherheitskräfte und Sportschützen trainieren können.

Im Repertoire der Akademie finden sich zudem Ausbildungen im Nahkampf, darunter Krav-Maga- oder Selbstverteidigungskurse für Frauen. Das Sicherheitsexperten-Duo soll überdies auch Führungskräfte schulen, um von “Special Operations”, also den “harten Trainings der Spezialeinheiten”, zu profitieren. In Team-Workshops sollen Resilienz, Bewusstsein und Teamfähigkeit gestärkt werden.

Bei Einsatz kennengelernt

Laut Pressemeldung gilt die Unternehmung mittlerweile als eine der führenden Sicherheitsberatungs-Unternehmen in Österreich. Co-Founder Lanczmann ist zuvor als Sicherheitsmitarbeiter der israelischen Fluglinie El Al sowie als Elite-Einsatzkraft tätig gewesen.

Auch Co-Founder Halevi selbst hat laut Aussendung “jahrelang in israelischen Spezialeinheiten” und bei der Fluglinie El Al gearbeitet. Kennengelernt hat sich das Gründerduo “bei einem gemeinsamen Einsatz”, heißt es per Aussendung.

Seit Jänner 2022 ist Co-Founder Lanczmann als alleiniger Geschäftsführer der Akademie tätig. Rony Halevi ist nun Prokurist, zuvor teilten sich die beiden den Posten des CEOs. Lanczmann selbst hält aktuell 28,57 Prozent am Unternehmen.

Co-Founder Aharon Halevi hält 21,43 Prozent, die Hesz’sche Privatstiftung 17,86 Prozent. Als weiterer Bestandsinvestor gilt die ETC BeteiligungsgmbH, die – ebenso wie Neuinvestor Ruschin – mit 16,07 Prozent an der Unternehmung beteiligt ist.

“Die Welt ist in den letzten Jahren gefährlicher geworden”

“Wir freuen uns, mit Ben Ruschin einen erfahrenen Investor für Halevi Partner an Bord zu haben. Mit seiner Vertriebserfahrung und seinem Netzwerk bringt er eine wichtige Kompetenz in unser Unternehmen ein”, wird Co-Founder Lanczmann in einer Aussendung zitiert.

Ruschin kommentiert die Beteiligung folgendermaßen: “Die Welt ist in den letzten Jahren gefährlicher geworden – Österreich ist davon nicht ausgenommen. CEOs müssen sich mehr als je zuvor um die persönliche Sicherheit ihrer Mitarbeiter kümmern und Privatpersonen sind mit dem Thema konfrontiert, wie sie die Sicherheit ihrer Familie gewährleisten.”

Dem Investor zufolge soll das Angebot von Halevi Partner “sowohl Unternehmen als auch Privatpersonen” auf Gefahrenquellen vorbereiten und “konkrete Lösungen anbieten.” Eine konkrete Beteiligungssumme Ruschins wird neben nicht genannt.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

NXAI veröffentlicht “energieeffizientestes Modell in der Welt der Large Language Models”