23.06.2023

So funktioniert das KI-Zertifikat von TÜV Austria

Ein TÜV-Zertifikat soll die Zuverlässigkeit von KI-Anwendungen beweisen und abdecken, was im AI Act (noch) fehlt.
/artikel/so-funktioniert-das-ki-zertifikat-von-tuev-austria
Foto: Unsplahs/Alex Knight

Wie stellt man sicher, dass Künstliche Intelligenz das tut, was sie soll? Sei es im Auto, im Krankenhaus, in der eigenen Wohnung oder in der Fabrik – KI-Anwendungen, die aus sicherheits- oder finanzkritischen Gründen Verlässlichkeit nachweisen müssen, brauchen ein entsprechend stichfestes Gütesiegel. Dieser Aufgabe widmet sich der TÜV Austria seit 2021.

Unter dem Namen “Trusted AI” hat man in Kooperation mit der Johannes Kepler Universität Linz (JKU) und dem Software Competence Center Hagenberg (SCCH) ein Machine-Learning-Zertifizierungsschema entwickelt. Dieses beurteilt KI-Anwendungen und im Gegensatz zu anderen Prüfungsinstituten nicht lediglich die Entwicklungsprozesse. Das Schema beschränkt sich aktuell auf Supervised-Learning-Modelle. Weitere sollen nach und nach folgen.

Die richtige Prüfung für das Zertifikat

Doch wie prüft man? “Es ist wichtig, dass man KI-Anwendungen so trainiert, dass sie zu einem statistischen Maß dort funktionieren, wo man möchte”, erklärt Bernhard Nessler, Research Manager für Deep Learning und Certification beim Software Competence Center Hagenberg, im Gespräch mit brutkasten. Seit vier Jahren ist er an der Konzipierung des Zertifizierungsprozesses beteiligt.

In einem Entwurf eines Positionspapier von Nessler, Sepp Hochreiter (JKU) und Thomas Doms, Sicherheits- und KI-Experte des TÜV Austria, betonen diese die Notwendigkeit der statistischen Prüfung. Man stelle sich ein neues Küchenmesser vor. Wie beim Machine Learning wird es trainiert: An reifen Wassermelonen, Äpfeln, grünem Brokkoli und anderem Gemüse. Ist das Training abgeschlossen, versucht man es zu nutzen. Zwar klappe es bei den genannten Objekten, bei anderen tauchen aber Probleme auf: Es schneidet bei Äpfel der Boskop-Sorte nicht durch, Gurken werden zerquetscht, auch die Anwendung bei unreifen Melonen oder außerhalb der Küche ist nicht einwandfrei möglich.

“Wenn ich die Anwendung trainiert habe, mit etwas zu funktionieren, dann ist sie dafür optimiert”, erklärt Nessler. Wichtig sei zu wissen, wie gut sie bei anderen Fällen arbeitet, die wir erwarten würden. Daher sei die Definition entscheidend für die Beurteilung der Funktionalität, die auch Risiken bzw. Aspekte wie Sicherheit und Fairness umfasst.

Anwendungsweck genau definieren

“Wir können nicht sagen: Das Messer ist zum Gemüse schneiden.” Das wäre laut Nessler zu vage und daraus würden “schlechte und unzuverlässige Modelle” werden, die unvorhersehbar sind. Besser wäre beispielsweise zu fragen, wie zuverlässig funktioniert das Messer, wenn ich in einer europäischen Haushaltsküche Gemüse schneide, das zur Zubereitung einer Mahlzeit vorgesehen und im Supermarkt erhältlich ist.

Alle möglichen Fälle wären unmöglich zu prüfen. Man müsse etwas definieren, wo einzelne Samples gezogen werden können. Also in diesem Fall zufällige Testobjekte in Haushaltsküchen in Europa. “Das macht man dann 10.000 Mal – dann kann ich eine Prozentzahl ermitteln und ein statistisches Maß definieren.” Alle anderen Messmethoden seien eine “Illusion”. Bei Anwendungen wie einem KI-Bildgenerator sei das nicht so tragisch. “Jetzt stelle man sich statt dem Messer aber einen Küchenroboter vor, der den Nutzer:innen schaden kann”, sagt Nessler.

Abgesehen von der Funktionalität, müsse man Nessler nach auch die Definition selbst prüfen. Dabei beachtet man unter anderem auch den ethischen Aspekt. “Wenn eine Anwendung bis auf 2 Prozent bei allen Menschen in Europa funktioniert, aber jene 2 Prozent eine bestimmte Ethnie betreffen, dann haben wir ein Problem mit der Gleichbehandlung.”

Lücke im AI Act

Der AI Act ist das weltweit erste Gesetz für KI-Regulierung. Nessler sieht das Gesetzespaket kritisch: “Es fehlt die echte Prüfung der Funktion nach mathematischen Machine-Learning-Methoden, die seit 40 Jahren wohlbekannt sind.” Den verantwortlichen EU-Beamt:innen mangle es an Verständnis. Zwar habe man Expert:innen zugezogen, allerdings sei es laut Nessler schon allein nicht einfach zu bestimmen, wer tatsächlich die entsprechende Expertise aufweist. Von jenen “absolut höchst gefragten” Wissenschafter:innen gäbe es auch “ganz Wenige”.

Gut abgedeckt sei hingegen die Dokumentation und transparente Einsicht. Nessler befürchtet allerdings, dass dafür von kleineren Startups viel Arbeitszeit und Arbeitskraft gefordert wird, die wiederum beim Nachweis der funktionalen Vertrauenswürdigkeit fehlen könnte.

Langwierige Verbesserungen

Nach dem sich das EU-Parlament am 14. Juni über seine Verhandlungsposition entschieden hat, hat der Trilog unmittelbar begonnen. “Die Grundrichtung und die Grundprinzipien des AI Acts, nämlich der risikobasierte Ansatz, die Anknüpfung an eine KI-Definition und die Ausrichtung auf Elemente von vertrauenswürdige KI werden bleiben. Im Detail können und werden sich sehr wahrscheinlich noch Aspekte und Weichenstellungen im AI Act ändern”, erklärt Jeannette Gorzala, Rechtsanwältin und Vizepräsidentin des Europäischen KI-Forums.

Laut Gorzala wird erwartet, dass der AI Act Ende des Jahres beschlossen wird und etwa 2025 voll anwendbar ist. Danach dürfte es dauern bis etwaige Verbesserungen vorgenommen werden. “Die Effekte und die Umsetzung des AI Acts wird von den europäischen Gesetzgebern für einen Zeitraum von rund 5 Jahren beobachtet, damit wären wir ab Inkrafttreten schon bei 2030.” Wie schnell Anpassungen hänge aber von den angedachten Änderungen ab. “Je umstrittener, desto länger wird der Prozess dauern”, sagt Gorzala.

Große Nachfrage, aber noch keine Zertifikate

Laut Nessler stehen für das TÜV-Austria-Zertifikat schon einige Klienten in der Pipeline. Von Startups oder Produktentwickler:innen, die vor der Gründung stehen bis hin zu größeren Unternehmen aus dem Medizin- und Automobilbereich sowie anderen größeren Industrien. Namen dürfe er noch nicht nennen.

Im TÜV-Austria-Prüfkatalog werden unterschiedliche Ebenen behandelt von der Datenquelle, Zuverlässigkeit bis hin zu ethischen Fragen. Pilotprojekte werden aktuell schon untersucht. Zertifikate wurden bis jetzt noch nicht erteilt. Laut Nessler seien auch viele Anwendungen noch nicht soweit, um ein Zertifikat zu erhalten.

Deine ungelesenen Artikel:
20.09.2024

Technology Impact Summit 2024: Das steht beim KI-Event am Programm

Am 10. Oktober 2024 findet in Graz der interdisziplinäre Technology Impact Summit statt. Im Mittelpunkt steht dabei das Thema künstliche Intelligenz.
/artikel/technology-impact-summit-2024
20.09.2024

Technology Impact Summit 2024: Das steht beim KI-Event am Programm

Am 10. Oktober 2024 findet in Graz der interdisziplinäre Technology Impact Summit statt. Im Mittelpunkt steht dabei das Thema künstliche Intelligenz.
/artikel/technology-impact-summit-2024
Uni-Graz-Vizerektor Markus Fallenböck zählt zu den Initiatoren des TIS
Uni-Graz-Vizerektor Markus Fallenböck zählt zu den Initiatoren des TIS | Foto: Markus Fallenböck, Oliver Wolf (Hintergrund)

Als gemeinsame Initiative von Universität Graz, Technische Universität Graz, Joanneum Research und FH Joanneum findet am 10. Oktober 2024 erstmals der interdisziplinäre Technology Impact Summit in Graz statt. Vier führende wissenschaftliche Institutionen Österreichs bringen für einen Tag über 300 heimische und internationale Expert:innen zusammen, um sich dem prägenden Thema unserer Zeit – Künstliche Intelligenz – aus unterschiedlichen Perspektiven anzunähern.

Technology Impact Summit fördert Österreichs internationale Vernetzung

Ein besonderer Fokus liegt darauf, kritische Auseinandersetzungen und Diskussionen zu ermöglichen, um so einen Raum zu schaffen, in dem Teilnehmer voneinander lernen und sich gemeinsam weiterentwickeln können. Durch den offenen Dialog sollen neue Perspektiven gewonnen, kreative Lösungsansätze erarbeitet und die Kooperation auf allen Ebenen gestärkt werden. Ebenso soll die internationale Vernetzung und interdisziplinären Zusammenarbeit gefördert werden. 

„Mit ihrer starken Forschungs- und vielseitigen Wissenschaftslandschaft ist die Steiermark ein wichtiger Motor für Innovation und Entwicklung in Österreich. Mit dem Technology Impact Summit heben wir ein neues Think Tank Forum aus der Taufe, das die Stärken des Standorts in der internationalen wissenschaftlichen Diskussion aufzeigt und neue Kooperationen fördern wird“, betont Markus Fallenböck (Universität Graz), einer der Initiatoren.

Markus Fallenböck im Interview zum Technology Impact Summit:

Neben zwei inspirierenden Keynotes von Martin Kocher (Bundesminister für Arbeit und Wirtschaft) und Julia Shaw (University College London) sowie der Keynote Debate mit Konrad Paul Liessmann (Universität Wien) und Viktor Mayer-Schönberger (Oxford University) tauschen sich führende Wissenschaftler:innen mit Repräsentant:innen der Initiatoren sowie namhafter Unternehmen in „Near Future Debates“ über die Bereiche Technik, Recht, Wirtschaft und Ethik aus.

Diskussion über alle Facetten Künstlicher Intelligenz in Graz

Über Europas Rolle in der Entwicklung von Künstlicher Intelligenz und die Chancen, im internationalen Geschehen noch aufholen zu können, diskutieren unter der Moderation von Elisabeth Lex (Technische Universität Graz) in der ersten „Near Future Debate“ Mic Hirschbrich (Apollo.ai) und Jana Lasser (Universität Graz).

Ob der AI-Act der Europäischen Union ein Vorzeigemodell für die Welt oder ein direkter Weg auf das Abstellgleis im internationalen Wettbewerb ist, erörtert Thomas Burri (Universität St. Gallen) mit Jeannette Gorzala (European AI Forum). Matthias Wendland (Universität Graz) moderiert diese Debatte.

Stefan Thalmann (Universität Graz) und Harald Leitenmüller (Microsoft) analysieren unter der Moderation von Nicholas Katz (Joanneum Research) die Auswirkungen der Künstlichen Intelligenz auf den Arbeitsmarkt und beleuchten unterschiedliche Szenarien, in denen sie sich als Lösung für den Arbeitskräftemangel oder als Jobkiller erweisen wird.

Mit den gesellschaftlichen Auswirkungen befassen sich schließlich in der vierten „Near Future Debate“, moderiert von Birgit Philips (FH Joanneum), Markus Kneer (Universität Graz) und Sonja Schmer-Galunder (University of Florida). Sie gehen der Frage nach, ob sie zu einer weiteren Spaltung der Gesellschaft führen oder dieser durch inklusive und konstruktive Zugänge zu Technologie entgegenwirken kann.

In „Lightning Talks“ stellen Unternehmen richtungsweisende Use Cases für Künstliche Intelligenz vor und präsentieren künftige Anwendungsmodelle.


Der Technology Impact Summit 2024 wird unterstützt von ACP, Grant Thornton, Grazer Wechselseitige, LexisNexis, Microsoft Österreich, PwC, Schiefer Rechtsanwälte, Steiermärkische Sparkasse, AWS, Bankenverband, Bundesministerium für Arbeit und Wirtschaft, Bundesministerium für Bildung, Wissenschaft und Forschung, CANCOM, Energie Steiermark, Holding Graz, Industriellenvereinigung Steiermark, Land Steiermark, Österreichische Post/Business Solution, Raiffeisen-Landesbank Steiermark, SAP, Verband für Standort und Gesellschaft (VSG), Vrisch, WKO Steiermark, 4Events. 

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Der Inhalt des Artikels hat gesellschaftspolitische Auswirkungen, da er auf die Notwendigkeit von Zertifikaten für KI-Anwendungen hinweist, insbesondere für Anwendungen, die eine hohe Verlässlichkeit aufweisen müssen. Dies ist von Bedeutung für die Sicherheit und Funktionalität von KI-Anwendungen in verschiedenen Bereichen wie dem Gesundheitswesen, der Automobilindustrie, der Produktion und dem Alltag. Die Einführung von Zertifikaten und Prüfverfahren kann dazu beitragen, das Vertrauen in KI-Anwendungen zu stärken und die ethischen und rechtlichen Aspekte von KI zu berücksichtigen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Das Machine-Learning-Zertifikat “Trusted AI” des TÜV Austria hat das Potenzial, die Anwendung von KI-Anwendungen sicherer zu machen und das Vertrauen der Verbraucher und Unternehmen zu stärken. Unternehmen aus verschiedenen Branchen, darunter Medizin und Automobil, haben bereits Interesse an dem Zertifikat gezeigt. Eine erfolgreiche Zertifizierung könnte dazu beitragen, das Risiko potenzieller Schäden durch fehlerhafte KI-Anwendungen zu reduzieren und gleichzeitig die Akzeptanz von KI zu erhöhen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Als Innovationsmanager:in sollten Sie sich mit den aktuellen Entwicklungen im Bereich der Künstlichen Intelligenz und der Zertifizierung von KI-Anwendungen auseinandersetzen. Das Trusted AI-Zertifikat vom TÜV Austria ermöglicht Unternehmen, die Verlässlichkeit von Machine-Learning-Anwendungen nachzuweisen und somit das Vertrauen der Kunden und der Öffentlichkeit zu stärken. Es ist wichtig, dass KI-Anwendungen ein entsprechendes Gütesiegel vorweisen können, insbesondere bei sicherheits- oder finanzkritischen Anwendungen. Daher sollten Sie sich über das Zertifizierungsschema informieren und gegebenenfalls prüfen, ob es für Ihre innovativen KI-Projekte relevant und nützlich sein könnte.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Als Investor:in ist es wichtig, KI-Anwendungen zu unterstützen, die über ein zuverlässiges Gütesiegel verfügen. Der TÜV Austria hat in Zusammenarbeit mit der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg ein Machine-Learning-Zertifizierungsschema namens “Trusted AI” entwickelt, das eine statistische Prüfung der Funktionalität und Definition von KI-Anwendungen beinhaltet. Dies kann dazu beitragen, das Risiko unvorhersehbarer Probleme und ethischer Fragen bei der Verwendung von KI zu minimieren, was für Investitionen in diesem Bereich von Bedeutung sein kann.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Das Thema der Zertifizierung von Künstlicher Intelligenz (KI) wird in Zukunft immer wichtiger werden, wenn es um verlässliche KI-Anwendungen in verschiedenen Bereichen wie der Automobil- und Medizinindustrie geht. Dieser Artikel beschreibt eine neue Zertifizierungsmethode für KI-Anwendungen namens “Trusted AI”, die von TÜV Austria, der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg entwickelt wurde. Als Politiker:in ist es wichtig, sich über solche neuen Entwicklungen im KI-Bereich auf dem Laufenden zu halten und die Regulierung und Standards für KI-Anwendungen zu überwachen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Der Artikel behandelt die Entwicklung eines Machine-Learning-Zertifizierungsschemas namens Trusted AI durch den TÜV Austria in Kooperation mit der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg. Die Zertifizierung beurteilt KI-Anwendungen auf ihre Funktionalität, Sicherheit und Fairness. Eine korrekte Definition des Anwendungswecks und die statistische Prüfung sind von wesentlicher Bedeutung. Experten äußern auch Bedenken hinsichtlich des AI Acts, des weltweit ersten Gesetzes für KI-Regulierung, aufgrund von fehlenden Prüfungsmethoden und möglichen Auswirkungen auf kleinere Start-ups. Das TÜV-Austria-Zertifikat stößt laut Experten auf eine hohe Nachfrage, aber es wurden noch keine Zertifikate erteilt.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

  • Bernhard Nessler
  • Jeannette Gorzala
  • Sepp Hochreiter
  • Thomas Doms

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

  • TÜV Austria
  • Johannes Kepler Universität Linz (JKU)
  • Software Competence Center Hagenberg (SCCH)

So funktioniert das KI-Zertifikat von TÜV Austria