23.06.2023

So funktioniert das KI-Zertifikat von TÜV Austria

Ein TÜV-Zertifikat soll die Zuverlässigkeit von KI-Anwendungen beweisen und abdecken, was im AI Act (noch) fehlt.
/artikel/so-funktioniert-das-ki-zertifikat-von-tuev-austria
Foto: Unsplahs/Alex Knight

Wie stellt man sicher, dass Künstliche Intelligenz das tut, was sie soll? Sei es im Auto, im Krankenhaus, in der eigenen Wohnung oder in der Fabrik – KI-Anwendungen, die aus sicherheits- oder finanzkritischen Gründen Verlässlichkeit nachweisen müssen, brauchen ein entsprechend stichfestes Gütesiegel. Dieser Aufgabe widmet sich der TÜV Austria seit 2021.

Unter dem Namen “Trusted AI” hat man in Kooperation mit der Johannes Kepler Universität Linz (JKU) und dem Software Competence Center Hagenberg (SCCH) ein Machine-Learning-Zertifizierungsschema entwickelt. Dieses beurteilt KI-Anwendungen und im Gegensatz zu anderen Prüfungsinstituten nicht lediglich die Entwicklungsprozesse. Das Schema beschränkt sich aktuell auf Supervised-Learning-Modelle. Weitere sollen nach und nach folgen.

Die richtige Prüfung für das Zertifikat

Doch wie prüft man? “Es ist wichtig, dass man KI-Anwendungen so trainiert, dass sie zu einem statistischen Maß dort funktionieren, wo man möchte”, erklärt Bernhard Nessler, Research Manager für Deep Learning und Certification beim Software Competence Center Hagenberg, im Gespräch mit brutkasten. Seit vier Jahren ist er an der Konzipierung des Zertifizierungsprozesses beteiligt.

In einem Entwurf eines Positionspapier von Nessler, Sepp Hochreiter (JKU) und Thomas Doms, Sicherheits- und KI-Experte des TÜV Austria, betonen diese die Notwendigkeit der statistischen Prüfung. Man stelle sich ein neues Küchenmesser vor. Wie beim Machine Learning wird es trainiert: An reifen Wassermelonen, Äpfeln, grünem Brokkoli und anderem Gemüse. Ist das Training abgeschlossen, versucht man es zu nutzen. Zwar klappe es bei den genannten Objekten, bei anderen tauchen aber Probleme auf: Es schneidet bei Äpfel der Boskop-Sorte nicht durch, Gurken werden zerquetscht, auch die Anwendung bei unreifen Melonen oder außerhalb der Küche ist nicht einwandfrei möglich.

“Wenn ich die Anwendung trainiert habe, mit etwas zu funktionieren, dann ist sie dafür optimiert”, erklärt Nessler. Wichtig sei zu wissen, wie gut sie bei anderen Fällen arbeitet, die wir erwarten würden. Daher sei die Definition entscheidend für die Beurteilung der Funktionalität, die auch Risiken bzw. Aspekte wie Sicherheit und Fairness umfasst.

Anwendungsweck genau definieren

“Wir können nicht sagen: Das Messer ist zum Gemüse schneiden.” Das wäre laut Nessler zu vage und daraus würden “schlechte und unzuverlässige Modelle” werden, die unvorhersehbar sind. Besser wäre beispielsweise zu fragen, wie zuverlässig funktioniert das Messer, wenn ich in einer europäischen Haushaltsküche Gemüse schneide, das zur Zubereitung einer Mahlzeit vorgesehen und im Supermarkt erhältlich ist.

Alle möglichen Fälle wären unmöglich zu prüfen. Man müsse etwas definieren, wo einzelne Samples gezogen werden können. Also in diesem Fall zufällige Testobjekte in Haushaltsküchen in Europa. “Das macht man dann 10.000 Mal – dann kann ich eine Prozentzahl ermitteln und ein statistisches Maß definieren.” Alle anderen Messmethoden seien eine “Illusion”. Bei Anwendungen wie einem KI-Bildgenerator sei das nicht so tragisch. “Jetzt stelle man sich statt dem Messer aber einen Küchenroboter vor, der den Nutzer:innen schaden kann”, sagt Nessler.

Abgesehen von der Funktionalität, müsse man Nessler nach auch die Definition selbst prüfen. Dabei beachtet man unter anderem auch den ethischen Aspekt. “Wenn eine Anwendung bis auf 2 Prozent bei allen Menschen in Europa funktioniert, aber jene 2 Prozent eine bestimmte Ethnie betreffen, dann haben wir ein Problem mit der Gleichbehandlung.”

Lücke im AI Act

Der AI Act ist das weltweit erste Gesetz für KI-Regulierung. Nessler sieht das Gesetzespaket kritisch: “Es fehlt die echte Prüfung der Funktion nach mathematischen Machine-Learning-Methoden, die seit 40 Jahren wohlbekannt sind.” Den verantwortlichen EU-Beamt:innen mangle es an Verständnis. Zwar habe man Expert:innen zugezogen, allerdings sei es laut Nessler schon allein nicht einfach zu bestimmen, wer tatsächlich die entsprechende Expertise aufweist. Von jenen “absolut höchst gefragten” Wissenschafter:innen gäbe es auch “ganz Wenige”.

Gut abgedeckt sei hingegen die Dokumentation und transparente Einsicht. Nessler befürchtet allerdings, dass dafür von kleineren Startups viel Arbeitszeit und Arbeitskraft gefordert wird, die wiederum beim Nachweis der funktionalen Vertrauenswürdigkeit fehlen könnte.

Langwierige Verbesserungen

Nach dem sich das EU-Parlament am 14. Juni über seine Verhandlungsposition entschieden hat, hat der Trilog unmittelbar begonnen. “Die Grundrichtung und die Grundprinzipien des AI Acts, nämlich der risikobasierte Ansatz, die Anknüpfung an eine KI-Definition und die Ausrichtung auf Elemente von vertrauenswürdige KI werden bleiben. Im Detail können und werden sich sehr wahrscheinlich noch Aspekte und Weichenstellungen im AI Act ändern”, erklärt Jeannette Gorzala, Rechtsanwältin und Vizepräsidentin des Europäischen KI-Forums.

Laut Gorzala wird erwartet, dass der AI Act Ende des Jahres beschlossen wird und etwa 2025 voll anwendbar ist. Danach dürfte es dauern bis etwaige Verbesserungen vorgenommen werden. “Die Effekte und die Umsetzung des AI Acts wird von den europäischen Gesetzgebern für einen Zeitraum von rund 5 Jahren beobachtet, damit wären wir ab Inkrafttreten schon bei 2030.” Wie schnell Anpassungen hänge aber von den angedachten Änderungen ab. “Je umstrittener, desto länger wird der Prozess dauern”, sagt Gorzala.

Große Nachfrage, aber noch keine Zertifikate

Laut Nessler stehen für das TÜV-Austria-Zertifikat schon einige Klienten in der Pipeline. Von Startups oder Produktentwickler:innen, die vor der Gründung stehen bis hin zu größeren Unternehmen aus dem Medizin- und Automobilbereich sowie anderen größeren Industrien. Namen dürfe er noch nicht nennen.

Im TÜV-Austria-Prüfkatalog werden unterschiedliche Ebenen behandelt von der Datenquelle, Zuverlässigkeit bis hin zu ethischen Fragen. Pilotprojekte werden aktuell schon untersucht. Zertifikate wurden bis jetzt noch nicht erteilt. Laut Nessler seien auch viele Anwendungen noch nicht soweit, um ein Zertifikat zu erhalten.

Deine ungelesenen Artikel:
20.09.2024

Flightkeys: US-Investor steigt bei Wiener Unternehmen für Flugsoftware ein

Das 2015 gegründete Wiener Unternehmen Flightkeys optimiert Flugpläne in Echtzeit und ist Marktführer in der USA. Die seit 2016 beteiligte B&C Innovation Investments steigt nun aus, im Gegenzug kommt ein großer US-Investor an Bord.
/artikel/flightkeys-us-investor-steigt-bei-wiener-unternehmen-fuer-flugsoftware-ein
20.09.2024

Flightkeys: US-Investor steigt bei Wiener Unternehmen für Flugsoftware ein

Das 2015 gegründete Wiener Unternehmen Flightkeys optimiert Flugpläne in Echtzeit und ist Marktführer in der USA. Die seit 2016 beteiligte B&C Innovation Investments steigt nun aus, im Gegenzug kommt ein großer US-Investor an Bord.
/artikel/flightkeys-us-investor-steigt-bei-wiener-unternehmen-fuer-flugsoftware-ein
Christoph Prinz, Mitgründer von Flightkeys, und Thomas Zimpfer, Geschäftsführer der B&C-Gruppe
Christoph Prinz, Mitgründer von Flightkeys, bleibt an Bord und Thomas Zimpfer, Geschäftsführer der B&C-Gruppe, steigt aus | Foto: Alexander Müller

Man könnte Flightkeys wohl zu den “Hidden Champions” der österreichischen Wirtschaft zählen: Das 2015 gegründete Unternehmen mit Sitz in Wien entwickelt Software, mit der Fluglinien ihre Flugpläne in Echtzeit optimieren können. Flightkeys ist nach eigenen Angaben dabei Marktführer in den USA, zählt aber ebenso renommierte Airlines aus Europa und anderen Kontinenten zu seinen Kunden. Das Tochterunternehmen Spacekeys wiederum ist Weltmarktführer bei der Berechnung zu Satellitenkonstellationen. Mit Skykeys gibt es noch ein weiteres Tochterunternehmen, das Software für Piloten für den Einsatz direkt im Cockpit entwickelt.

Flightkeys hat 110 Mitarbeiter:innen und optimiert täglich rund 380.000 Flugpläne. Durch diese Anpassungen können nach Angaben des Unternehmens bis zu acht Prozent des jeweiligen Treibstoffverbrauchs eingespart werden.

B&C Innovation Investments steigt nach acht Jahren aus

Größter Anteilseigner mit über 18 Prozent war bisher die B&C Innovation Investments, der Investment-Arm der B&C-Gruppe, die wiederum Mehrheitseigentümerin der österreichischen Industriekonzerne AMAG, Lenzing und Semperit ist. Diese verkündete nun aber ihren Ausstieg. Man habe sich mit dem Flightkeys-Gründerteam sowie dem globalen Softwareinvestor Insight Partners “auf die Übertragung eines signifikanten Anteils” geeinigt, heißt es in einer Aussendung.

Die B&C Innovation Investments steigt im Zuge des Deals vollständig bei Flightkeys aus. Eingestiegen war man 2016, seither habe sich der Wert der Anteile “um das rund Fünfzigfache gesteigert”, wie das Unternehmen schreibt. Das Closing steht noch unter dem Vorbehalt der notwendigen aufsichtsrechtlichen Genehmigungen. Auch nach dem Deal hält das siebenköpfige Gründerteam von Flightkeys die Mehrheit der Anteile.

Neuer Investor verwaltet 80 Mrd. US-Dollar

Der neue Anteilseigner Insight Partners ist ein globaler Softwareinvestor, der auf Startups und Scaleups im Software-Bereich spezialisiert ist. Das Unternehmen verwaltet Gelder in der Höhe von 80 Mrd. US-Dollar. Nach eigenen Angaben hat es in mehr als 800 Unternehmen investiert, 55 Portfolio-Unternehmen gingen später an die Börse.

Flightkeys-Co-Founder Christoph Prinz kommentiert den Deal folgendermaßen: “Mit der neuen Partnerschaft wird Flightkeys, wie bisher, auf organisches und nachhaltiges Wachstum setzen und die Marktposition bei der Kostenoptimierung des Flugbetriebes für Airlines weltweit weiter ausbauen. Der Firmensitz wird auch in Zukunft in Wien angesiedelt sein, wodurch die zukünftige Wertschöpfung durch dieses Hightech-Unternehmen in Österreich verbleibt.”

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Der Inhalt des Artikels hat gesellschaftspolitische Auswirkungen, da er auf die Notwendigkeit von Zertifikaten für KI-Anwendungen hinweist, insbesondere für Anwendungen, die eine hohe Verlässlichkeit aufweisen müssen. Dies ist von Bedeutung für die Sicherheit und Funktionalität von KI-Anwendungen in verschiedenen Bereichen wie dem Gesundheitswesen, der Automobilindustrie, der Produktion und dem Alltag. Die Einführung von Zertifikaten und Prüfverfahren kann dazu beitragen, das Vertrauen in KI-Anwendungen zu stärken und die ethischen und rechtlichen Aspekte von KI zu berücksichtigen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Das Machine-Learning-Zertifikat “Trusted AI” des TÜV Austria hat das Potenzial, die Anwendung von KI-Anwendungen sicherer zu machen und das Vertrauen der Verbraucher und Unternehmen zu stärken. Unternehmen aus verschiedenen Branchen, darunter Medizin und Automobil, haben bereits Interesse an dem Zertifikat gezeigt. Eine erfolgreiche Zertifizierung könnte dazu beitragen, das Risiko potenzieller Schäden durch fehlerhafte KI-Anwendungen zu reduzieren und gleichzeitig die Akzeptanz von KI zu erhöhen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Als Innovationsmanager:in sollten Sie sich mit den aktuellen Entwicklungen im Bereich der Künstlichen Intelligenz und der Zertifizierung von KI-Anwendungen auseinandersetzen. Das Trusted AI-Zertifikat vom TÜV Austria ermöglicht Unternehmen, die Verlässlichkeit von Machine-Learning-Anwendungen nachzuweisen und somit das Vertrauen der Kunden und der Öffentlichkeit zu stärken. Es ist wichtig, dass KI-Anwendungen ein entsprechendes Gütesiegel vorweisen können, insbesondere bei sicherheits- oder finanzkritischen Anwendungen. Daher sollten Sie sich über das Zertifizierungsschema informieren und gegebenenfalls prüfen, ob es für Ihre innovativen KI-Projekte relevant und nützlich sein könnte.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Als Investor:in ist es wichtig, KI-Anwendungen zu unterstützen, die über ein zuverlässiges Gütesiegel verfügen. Der TÜV Austria hat in Zusammenarbeit mit der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg ein Machine-Learning-Zertifizierungsschema namens “Trusted AI” entwickelt, das eine statistische Prüfung der Funktionalität und Definition von KI-Anwendungen beinhaltet. Dies kann dazu beitragen, das Risiko unvorhersehbarer Probleme und ethischer Fragen bei der Verwendung von KI zu minimieren, was für Investitionen in diesem Bereich von Bedeutung sein kann.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Das Thema der Zertifizierung von Künstlicher Intelligenz (KI) wird in Zukunft immer wichtiger werden, wenn es um verlässliche KI-Anwendungen in verschiedenen Bereichen wie der Automobil- und Medizinindustrie geht. Dieser Artikel beschreibt eine neue Zertifizierungsmethode für KI-Anwendungen namens “Trusted AI”, die von TÜV Austria, der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg entwickelt wurde. Als Politiker:in ist es wichtig, sich über solche neuen Entwicklungen im KI-Bereich auf dem Laufenden zu halten und die Regulierung und Standards für KI-Anwendungen zu überwachen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Der Artikel behandelt die Entwicklung eines Machine-Learning-Zertifizierungsschemas namens Trusted AI durch den TÜV Austria in Kooperation mit der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg. Die Zertifizierung beurteilt KI-Anwendungen auf ihre Funktionalität, Sicherheit und Fairness. Eine korrekte Definition des Anwendungswecks und die statistische Prüfung sind von wesentlicher Bedeutung. Experten äußern auch Bedenken hinsichtlich des AI Acts, des weltweit ersten Gesetzes für KI-Regulierung, aufgrund von fehlenden Prüfungsmethoden und möglichen Auswirkungen auf kleinere Start-ups. Das TÜV-Austria-Zertifikat stößt laut Experten auf eine hohe Nachfrage, aber es wurden noch keine Zertifikate erteilt.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

  • Bernhard Nessler
  • Jeannette Gorzala
  • Sepp Hochreiter
  • Thomas Doms

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

  • TÜV Austria
  • Johannes Kepler Universität Linz (JKU)
  • Software Competence Center Hagenberg (SCCH)

So funktioniert das KI-Zertifikat von TÜV Austria