23.06.2023

So funktioniert das KI-Zertifikat von TÜV Austria

Ein TÜV-Zertifikat soll die Zuverlässigkeit von KI-Anwendungen beweisen und abdecken, was im AI Act (noch) fehlt.
/artikel/so-funktioniert-das-ki-zertifikat-von-tuev-austria
Foto: Unsplahs/Alex Knight

Wie stellt man sicher, dass Künstliche Intelligenz das tut, was sie soll? Sei es im Auto, im Krankenhaus, in der eigenen Wohnung oder in der Fabrik – KI-Anwendungen, die aus sicherheits- oder finanzkritischen Gründen Verlässlichkeit nachweisen müssen, brauchen ein entsprechend stichfestes Gütesiegel. Dieser Aufgabe widmet sich der TÜV Austria seit 2021.

Unter dem Namen “Trusted AI” hat man in Kooperation mit der Johannes Kepler Universität Linz (JKU) und dem Software Competence Center Hagenberg (SCCH) ein Machine-Learning-Zertifizierungsschema entwickelt. Dieses beurteilt KI-Anwendungen und im Gegensatz zu anderen Prüfungsinstituten nicht lediglich die Entwicklungsprozesse. Das Schema beschränkt sich aktuell auf Supervised-Learning-Modelle. Weitere sollen nach und nach folgen.

Die richtige Prüfung für das Zertifikat

Doch wie prüft man? “Es ist wichtig, dass man KI-Anwendungen so trainiert, dass sie zu einem statistischen Maß dort funktionieren, wo man möchte”, erklärt Bernhard Nessler, Research Manager für Deep Learning und Certification beim Software Competence Center Hagenberg, im Gespräch mit brutkasten. Seit vier Jahren ist er an der Konzipierung des Zertifizierungsprozesses beteiligt.

In einem Entwurf eines Positionspapier von Nessler, Sepp Hochreiter (JKU) und Thomas Doms, Sicherheits- und KI-Experte des TÜV Austria, betonen diese die Notwendigkeit der statistischen Prüfung. Man stelle sich ein neues Küchenmesser vor. Wie beim Machine Learning wird es trainiert: An reifen Wassermelonen, Äpfeln, grünem Brokkoli und anderem Gemüse. Ist das Training abgeschlossen, versucht man es zu nutzen. Zwar klappe es bei den genannten Objekten, bei anderen tauchen aber Probleme auf: Es schneidet bei Äpfel der Boskop-Sorte nicht durch, Gurken werden zerquetscht, auch die Anwendung bei unreifen Melonen oder außerhalb der Küche ist nicht einwandfrei möglich.

“Wenn ich die Anwendung trainiert habe, mit etwas zu funktionieren, dann ist sie dafür optimiert”, erklärt Nessler. Wichtig sei zu wissen, wie gut sie bei anderen Fällen arbeitet, die wir erwarten würden. Daher sei die Definition entscheidend für die Beurteilung der Funktionalität, die auch Risiken bzw. Aspekte wie Sicherheit und Fairness umfasst.

Anwendungsweck genau definieren

“Wir können nicht sagen: Das Messer ist zum Gemüse schneiden.” Das wäre laut Nessler zu vage und daraus würden “schlechte und unzuverlässige Modelle” werden, die unvorhersehbar sind. Besser wäre beispielsweise zu fragen, wie zuverlässig funktioniert das Messer, wenn ich in einer europäischen Haushaltsküche Gemüse schneide, das zur Zubereitung einer Mahlzeit vorgesehen und im Supermarkt erhältlich ist.

Alle möglichen Fälle wären unmöglich zu prüfen. Man müsse etwas definieren, wo einzelne Samples gezogen werden können. Also in diesem Fall zufällige Testobjekte in Haushaltsküchen in Europa. “Das macht man dann 10.000 Mal – dann kann ich eine Prozentzahl ermitteln und ein statistisches Maß definieren.” Alle anderen Messmethoden seien eine “Illusion”. Bei Anwendungen wie einem KI-Bildgenerator sei das nicht so tragisch. “Jetzt stelle man sich statt dem Messer aber einen Küchenroboter vor, der den Nutzer:innen schaden kann”, sagt Nessler.

Abgesehen von der Funktionalität, müsse man Nessler nach auch die Definition selbst prüfen. Dabei beachtet man unter anderem auch den ethischen Aspekt. “Wenn eine Anwendung bis auf 2 Prozent bei allen Menschen in Europa funktioniert, aber jene 2 Prozent eine bestimmte Ethnie betreffen, dann haben wir ein Problem mit der Gleichbehandlung.”

Lücke im AI Act

Der AI Act ist das weltweit erste Gesetz für KI-Regulierung. Nessler sieht das Gesetzespaket kritisch: “Es fehlt die echte Prüfung der Funktion nach mathematischen Machine-Learning-Methoden, die seit 40 Jahren wohlbekannt sind.” Den verantwortlichen EU-Beamt:innen mangle es an Verständnis. Zwar habe man Expert:innen zugezogen, allerdings sei es laut Nessler schon allein nicht einfach zu bestimmen, wer tatsächlich die entsprechende Expertise aufweist. Von jenen “absolut höchst gefragten” Wissenschafter:innen gäbe es auch “ganz Wenige”.

Gut abgedeckt sei hingegen die Dokumentation und transparente Einsicht. Nessler befürchtet allerdings, dass dafür von kleineren Startups viel Arbeitszeit und Arbeitskraft gefordert wird, die wiederum beim Nachweis der funktionalen Vertrauenswürdigkeit fehlen könnte.

Langwierige Verbesserungen

Nach dem sich das EU-Parlament am 14. Juni über seine Verhandlungsposition entschieden hat, hat der Trilog unmittelbar begonnen. “Die Grundrichtung und die Grundprinzipien des AI Acts, nämlich der risikobasierte Ansatz, die Anknüpfung an eine KI-Definition und die Ausrichtung auf Elemente von vertrauenswürdige KI werden bleiben. Im Detail können und werden sich sehr wahrscheinlich noch Aspekte und Weichenstellungen im AI Act ändern”, erklärt Jeannette Gorzala, Rechtsanwältin und Vizepräsidentin des Europäischen KI-Forums.

Laut Gorzala wird erwartet, dass der AI Act Ende des Jahres beschlossen wird und etwa 2025 voll anwendbar ist. Danach dürfte es dauern bis etwaige Verbesserungen vorgenommen werden. “Die Effekte und die Umsetzung des AI Acts wird von den europäischen Gesetzgebern für einen Zeitraum von rund 5 Jahren beobachtet, damit wären wir ab Inkrafttreten schon bei 2030.” Wie schnell Anpassungen hänge aber von den angedachten Änderungen ab. “Je umstrittener, desto länger wird der Prozess dauern”, sagt Gorzala.

Große Nachfrage, aber noch keine Zertifikate

Laut Nessler stehen für das TÜV-Austria-Zertifikat schon einige Klienten in der Pipeline. Von Startups oder Produktentwickler:innen, die vor der Gründung stehen bis hin zu größeren Unternehmen aus dem Medizin- und Automobilbereich sowie anderen größeren Industrien. Namen dürfe er noch nicht nennen.

Im TÜV-Austria-Prüfkatalog werden unterschiedliche Ebenen behandelt von der Datenquelle, Zuverlässigkeit bis hin zu ethischen Fragen. Pilotprojekte werden aktuell schon untersucht. Zertifikate wurden bis jetzt noch nicht erteilt. Laut Nessler seien auch viele Anwendungen noch nicht soweit, um ein Zertifikat zu erhalten.

Deine ungelesenen Artikel:
27.11.2024

Heizma holt bisherigen technischen Leiter von Verbund-Tochter als technischen Direktor

Peter Astl, bislang gewerberechtlicher Geschäftsführer in einer Abteilung des Verbund-Corporate-Startups HalloSonne, wechselt als technischer Direktor zum Wiener Wärmepumpen-Startup Heizma.
/artikel/heizma-peter-astl
27.11.2024

Heizma holt bisherigen technischen Leiter von Verbund-Tochter als technischen Direktor

Peter Astl, bislang gewerberechtlicher Geschäftsführer in einer Abteilung des Verbund-Corporate-Startups HalloSonne, wechselt als technischer Direktor zum Wiener Wärmepumpen-Startup Heizma.
/artikel/heizma-peter-astl
Peter Astl ist neuer Technischer Direktor von Heizma | (c) Heizma
Peter Astl ist neuer Technischer Direktor von Heizma | (c) Heizma

Achtstellige Umsätze und einem Team von mittlerweile rund 70 Personen – diese Zahlen gab Michael Kowatschew, Co-Founder des Wiener Startups Heizma, gestern über LinkedIn aus. Dabei ging das Unternehmen erst im Frühjahr an den Start und hat bislang kein Investment aufgenommen. Nun verkündete das Startup mit Peter Astl einen Neuzugang in leitender Position.

Heizma macht nun Elektroinstallationen inhouse und erweitert Angebot auf Photovoltaik

Heizma will Kund:innen einen möglichst einfachen und schnellen Zugang zu Wärmepumpen-Systemen bieten – inklusive Förderabwicklung. Das Geschäftsfeld soll nun aber erweitert werden. Dabei soll Peter Astl als neuer “technischer Direktor für das Elektro- und PV-Geschäft” eine zentrale Rolle spielen. “Mit diesem Schritt leitet Heizma die nächste Wachstumsphase des erst im März dieses Jahres gegründeten Unternehmens ein. Statt reinen Wärmepumpen-Installationsleistungen werden ab sofort auch hauseigene Elektroinstallationen angeboten und in naher Zukunft komplette Photovoltaik-Anlagen errichtet”, heißt es vom Startup in einer Aussendung.

Peter Astl kommt mit spezifischer Erfahrung von HalloSonne zu Heizma

Peter Astl war bislang gewerberechtlicher Geschäftsführer der Hallosonne Installations GmbH, einer Tochter des Corporate Startups HalloSonne von Verbund, und damit technischer Leiter des Unternehmens. Von dort bringt er Erfahrung in genau dem von Heizma geplanten neuen Geschäftsbereich Photovoltaik mit. Davor war er unter anderem sieben Jahre lang als gewerberechtlicher Geschäftsführer für die technische Betriebsführung der Millennium Tower Facility Management GmbH verantwortlich.

“Idealbesetzung für diese Position”

“In seiner neuen Rolle bei Heizma verantwortet er den Ausbau des internen Teams für Elektroinstallationen, um künftig alle Arbeiten rund um die Installation von Wärmepumpen effizient aus einer Hand und ohne Subunternehmen abwickeln zu können. Das ist ein wesentliches Unterscheidungsmerkmal zu den meisten Installationsbetrieben in Österreich”, heißt es in der Aussendung über Astl. “Er ist die Idealbesetzung für diese Position”, kommentiert Heizma-Co-Founder Kowatschew.

Astl: “Differenzieren uns von den meisten unserer Mitbewerber maßgeblich”

Und Astl selbst fügt an: “Das starke Team und die einzigartige Unternehmenskultur von Heizma haben mich von der ersten Sekunde an überzeugt. Wir liefern Kund:innen von der Beratung bis zur fertigen Lösung und Förderungsabwicklung alles mit eigenen Mitarbeiter:innen aus einer Hand. Damit differenzieren wir uns von den meisten unserer Mitbewerber maßgeblich, die oft auf Subunternehmen zurückgreifen müssen.”

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Der Inhalt des Artikels hat gesellschaftspolitische Auswirkungen, da er auf die Notwendigkeit von Zertifikaten für KI-Anwendungen hinweist, insbesondere für Anwendungen, die eine hohe Verlässlichkeit aufweisen müssen. Dies ist von Bedeutung für die Sicherheit und Funktionalität von KI-Anwendungen in verschiedenen Bereichen wie dem Gesundheitswesen, der Automobilindustrie, der Produktion und dem Alltag. Die Einführung von Zertifikaten und Prüfverfahren kann dazu beitragen, das Vertrauen in KI-Anwendungen zu stärken und die ethischen und rechtlichen Aspekte von KI zu berücksichtigen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Das Machine-Learning-Zertifikat “Trusted AI” des TÜV Austria hat das Potenzial, die Anwendung von KI-Anwendungen sicherer zu machen und das Vertrauen der Verbraucher und Unternehmen zu stärken. Unternehmen aus verschiedenen Branchen, darunter Medizin und Automobil, haben bereits Interesse an dem Zertifikat gezeigt. Eine erfolgreiche Zertifizierung könnte dazu beitragen, das Risiko potenzieller Schäden durch fehlerhafte KI-Anwendungen zu reduzieren und gleichzeitig die Akzeptanz von KI zu erhöhen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Als Innovationsmanager:in sollten Sie sich mit den aktuellen Entwicklungen im Bereich der Künstlichen Intelligenz und der Zertifizierung von KI-Anwendungen auseinandersetzen. Das Trusted AI-Zertifikat vom TÜV Austria ermöglicht Unternehmen, die Verlässlichkeit von Machine-Learning-Anwendungen nachzuweisen und somit das Vertrauen der Kunden und der Öffentlichkeit zu stärken. Es ist wichtig, dass KI-Anwendungen ein entsprechendes Gütesiegel vorweisen können, insbesondere bei sicherheits- oder finanzkritischen Anwendungen. Daher sollten Sie sich über das Zertifizierungsschema informieren und gegebenenfalls prüfen, ob es für Ihre innovativen KI-Projekte relevant und nützlich sein könnte.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Als Investor:in ist es wichtig, KI-Anwendungen zu unterstützen, die über ein zuverlässiges Gütesiegel verfügen. Der TÜV Austria hat in Zusammenarbeit mit der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg ein Machine-Learning-Zertifizierungsschema namens “Trusted AI” entwickelt, das eine statistische Prüfung der Funktionalität und Definition von KI-Anwendungen beinhaltet. Dies kann dazu beitragen, das Risiko unvorhersehbarer Probleme und ethischer Fragen bei der Verwendung von KI zu minimieren, was für Investitionen in diesem Bereich von Bedeutung sein kann.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Das Thema der Zertifizierung von Künstlicher Intelligenz (KI) wird in Zukunft immer wichtiger werden, wenn es um verlässliche KI-Anwendungen in verschiedenen Bereichen wie der Automobil- und Medizinindustrie geht. Dieser Artikel beschreibt eine neue Zertifizierungsmethode für KI-Anwendungen namens “Trusted AI”, die von TÜV Austria, der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg entwickelt wurde. Als Politiker:in ist es wichtig, sich über solche neuen Entwicklungen im KI-Bereich auf dem Laufenden zu halten und die Regulierung und Standards für KI-Anwendungen zu überwachen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Der Artikel behandelt die Entwicklung eines Machine-Learning-Zertifizierungsschemas namens Trusted AI durch den TÜV Austria in Kooperation mit der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg. Die Zertifizierung beurteilt KI-Anwendungen auf ihre Funktionalität, Sicherheit und Fairness. Eine korrekte Definition des Anwendungswecks und die statistische Prüfung sind von wesentlicher Bedeutung. Experten äußern auch Bedenken hinsichtlich des AI Acts, des weltweit ersten Gesetzes für KI-Regulierung, aufgrund von fehlenden Prüfungsmethoden und möglichen Auswirkungen auf kleinere Start-ups. Das TÜV-Austria-Zertifikat stößt laut Experten auf eine hohe Nachfrage, aber es wurden noch keine Zertifikate erteilt.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

  • Bernhard Nessler
  • Jeannette Gorzala
  • Sepp Hochreiter
  • Thomas Doms

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

  • TÜV Austria
  • Johannes Kepler Universität Linz (JKU)
  • Software Competence Center Hagenberg (SCCH)

So funktioniert das KI-Zertifikat von TÜV Austria