✨ AI Kontextualisierung
„In den Themen Zeitreihen, Vision-Anwendungen für Autos, Züge oder Drohnen steckt viel mehr Geld drin. Dort werden wir jetzt mit unserem NXAI-Geschäftsmodell ansetzen“, sagte Co-Founder Sepp Hochreiter – Chief Scientist des Linzer KI-Startups und Lehrstuhlinhaber an der JKU Linz – im April 2024 im Trend, als sich ein erhofftes 100-Millionen-Investment nicht materialisierte – brutkasten berichtete. Nun ist es so weit.
NXAI: „TiRex überlegen“
NXAI präsentierte mit TiRex sein erstes Zeitreihen-Modell auf xLSTM-Basis und übernahm damit in bekannten Leaderboards (GiftEval) die Spitze. Dabei sei das TiRex-Modell mit nur 35 Millionen Parametern kleiner als die Wettbewerbsmodelle und somit sehr speichereffizient. „Es ist anderen Methoden nicht nur in der Vorhersagequalität überlegen, sondern auch noch viel schneller als diese“, heißt es per Aussendung. Es übertrifft dabei größere Modelle wie TabPFN-TS (Prior Labs), Chronos Bolt (Amazon), TimesFM (Google) und Moirai (Salesforce).
Ein Zeitreihenmodell versucht, Muster, Trends, Saisonalitäten oder Wiederholungen in Daten zu erkennen, um dann die Vergangenheit zu analysieren, die Zukunft vorherzusagen (Prognose) oder Anomalien zu erkennen (z. B. plötzliche Ausreißer oder Fehler).
„Viele Menschen schauen auf Large Language Models wie ChatGPT, aber die großen Potenziale in der Industrie liegen woanders; beispielsweise in schnellen und speichereffizienten Zeitreihenmodellen – im Auto, in der Maschine, am Förderband, beim Schweißen oder in der Robotik. Überall dort fallen Zeitreihendaten an, die genutzt werden können. Und mit denen Geld verdient werden kann oder aus denen digitale Produkte entwickelt werden könnten. Vortrainierte Zeitreihenmodelle werden heute millionenfach heruntergeladen und schon wirtschaftlich genutzt”, erklärt Co-Founder Albert Ortig, CEO von NXAI.
Zu den bekanntesten Zeitreihenmodellen gehören u.a.:
LSTM: Long Short-Term Memory (LSTM)-Netzwerke gelten als Meilenstein in der KI-Zeitreihenanalyse. Sie sind darauf spezialisiert, sich an frühere Zustände zu erinnern und langfristige Zusammenhänge zu erkennen. Unternehmen setzen LSTM-Modelle insbesondere dann ein, wenn es darum geht, Trends über längere Zeiträume vorherzusagen.
GRU: Eine schnellere, ressourcenschonendere Alternative zum LSTM ist die Gated Recurrent Unit (GRU). Sie bietet ähnliche Lernfähigkeiten, sei jedoch effizienter und eigne sich daher für kleinere Datensätze oder mobile Anwendungen, bei denen die Rechenleistung limitiert ist.
Transformer wurden hingegen für die Sprachverarbeitung entwickelt. Ihre Stärke liege darin, alle Zeitpunkte gleichzeitig zu betrachten – statt Schritt für Schritt – und dabei auch langfristige Abhängigkeiten und Muster global zu erfassen.
CNNs: Convolutional Neural Networks (CNNs) sind eigentlich aus der Bilderkennung bekannt, lassen sich aber auch auf Zeitreihen anwenden. Ihre Spezialität ist das Erkennen lokaler Muster – etwa kurzfristige Ausreißer oder sich wiederholende Peaks.
In-Context-Learning
Zurück zu NXAI: Ihr Modell TiRex setzt auf In-Context-Learning, eine Lernmethode, die Zero-Shot-Vorhersagen (Anm.: Vorhersagen für neue Zeitreihen erfordern kein zusätzliches Training) erlaubt. „Dadurch lässt sich das Modell auch von Nicht-Experten als Prognosewerkzeug einsetzen und kann einfach in existierende Workflows integriert werden. Außerdem zeigen sich insbesondere bei begrenzter Datenverfügbarkeit Verbesserungen der Vorhersagequalität“, präzisiert Andreas Auer, Researcher bei NXAI.
Dadurch könnten beispielsweise Maschinenbauer ihren Kunden TiRex-Modelle als digitale Produkte zur Optimierung anbieten, die dann dank In-Context-Learning ohne neues Training on-premise laufen und auf die Daten des Kunden automatisch optimiert werden.
„Entscheidend ist, wie gut das Modell auf neue Zeitreihen generalisiert – TiRex tut das hervorragend”, erklärt Hochreiter. „Wir sprechen hier nicht mehr über kleine Verbesserungen, sondern über eine deutliche Qualitätssteigerung durch TiRex im Vergleich zu anderen Modellen und das im Kurz- als auch im Langzeitbereich.“
NXAI-Modell mit „State Tracking“
Ausschlaggebend dafür sei die Fähigkeit des Modells, den Systemzustand laufend zu überwachen, zu analysieren und zu aktualisieren. Dieses sogenannte „State Tracking“ könnten etwa transformer-basierte Ansätze nicht. Ein weiterer Vorteil der Modell-Architektur sei, dass man sie an Hardware anpassen könne und dadurch Embedded KI-Anwendungen ermögliche.
„Wir passen unser TiRex-Modell auf komplexe Use-Cases an. Wir arbeiten in der Automobilindustrie, um beispielsweise Ladezustände besser vorherzusagen oder in der Intralogistik, um den Materialfluss noch effizienter zu machen bzw. um Ausfallzeiten vorherzusagen und dann zu minimieren“, sagt Hochreiter. „Wir können aber auch Schweißpunkte prüfen, Einrichtungszeiten reduzieren oder die Qualität vorhersagen und verbessern.“