✨ AI Kontextualisierung
Man weiß es längst: Künstliche Intelligenz (KI) verändert auf vielfältige und rasante Weise die gewohnten Abläufe in Wirtschaft und Gesellschaft. Doch was mit den Daten passiert, mit denen man die KI-Tools in der Cloud füttert, ist unklar. So sieht es das HeadwAI-Team rund um Founder und CEO René Zeilinger.
LocalCore gegen falsche Hände
“Gerade für sensible Branchen und kritische Infrastruktur ist Datensicherheit nicht nur eine ethische Frage, sondern eine rechtliche und unternehmenskritsche”, sagt er. “Wie kann ich verhindern, dass heikle Daten in falsche Hände geraten?”
Als Antwort auf diese steigenden Anforderungen hat die KI-Schmiede aus St. Florian am Inn, Oberösterreich, LocalCore auf den Markt gebracht. Diese KI-Lösung läuft auf den lokalen Servern von Unternehmen, Behörden und Rechenzentren und garantiere somit Sicherheit, Kontrolle und Unabhängigkeit bei der Nutzung von generativen KI-Technologien, so der Claim.
“Patente, Lebensläufe, Verträge und geheime Unternehmensdaten sind alles Daten, die Unternehmen schützen wollen”, sagt Zeilinger. “Verwendet man cloudbasierte KI-Tools, gibt man diese sensiblen Daten aus der Hand – mit allen damit verbundenen rechtlichen und unternehmerischen Risiken.”
Keine Abhängigkeit von Drittanbietern
Gänzlich auf KI-Anwendungen zu verzichten, sei aber angesichts der enormen Potenziale wenig zielführend: “Mit unserer vollständig vor Ort betriebenen KI-Lösung nutzen Unternehmen die volle Power von KI und sind dabei völlig unabhängig von Drittanbietern, falls deren Server einmal ausfallen oder die Services eingeschränkt werden”, betont der Gründer.
LocalCore nutzt Open-Source-Sprachmodelle, die durch eine speziell entwickelte Software bereitgestellt und mit einem kundenzentrierten Rechtemanagement ergänzt werden. Die benötigte Rechenleistung liefern entweder kundeneigene Server oder leistungsstarke GPUs des vorkonfigurierten Hardwareangebots. Diese Kombination soll es Unternehmen ermöglichen, eine leistungsstarke, maßgeschneiderte KI-Plattform zu etablieren, die sowohl firmeninterne als auch externe Anwendungen unterstützt: Applikationen wie LocalChat – ein lokales ChatGPT, unternehmensweite Suche, Kundensupport-Agenten und rechtliche Assistenzsysteme sollen dabei alle lokal ohne die Risiken einer Cloud-Verbindung funktionieren.
Die offene Architektur von LocalCore erlaubt zudem über Programmierschnittstellen die Automatisierung von Prozessen und eine nahtlose, flexible Anbindung von zusätzlichen Tools von Drittanbietern.
“LocalCore gibt Kontrolle zurück”
Die Lösung skaliert außerdem ohne zusätzliche Kosten für Cloud-Services, was eine kalkulierbare Kostenstruktur schaffe, so ein weiteres Argument des HeadwAI-Teams. LocalCore erleichtert dabei die Erfüllung regulatorischer Anforderungen wie die Datenschutz-Grundverordnung (DSGVO), die NIS2-Richtlinie und dem kommenden EU AI Act.
“Mit LocalCore geben wir den Unternehmen die Kontrolle über ihre KI-Anwendungen zurück und ermöglichen ihnen eine unabhängige und sichere Datenverarbeitung direkt am eigenen Standort“, betont Zeilinger. “Das bedeutet maximale Sicherheit ohne Kompromisse bei der Leistung oder Flexibilität.”