23.06.2023

So funktioniert das KI-Zertifikat von TÜV Austria

Ein TÜV-Zertifikat soll die Zuverlässigkeit von KI-Anwendungen beweisen und abdecken, was im AI Act (noch) fehlt.
/artikel/so-funktioniert-das-ki-zertifikat-von-tuev-austria
Foto: Unsplahs/Alex Knight

Wie stellt man sicher, dass Künstliche Intelligenz das tut, was sie soll? Sei es im Auto, im Krankenhaus, in der eigenen Wohnung oder in der Fabrik – KI-Anwendungen, die aus sicherheits- oder finanzkritischen Gründen Verlässlichkeit nachweisen müssen, brauchen ein entsprechend stichfestes Gütesiegel. Dieser Aufgabe widmet sich der TÜV Austria seit 2021.

Unter dem Namen “Trusted AI” hat man in Kooperation mit der Johannes Kepler Universität Linz (JKU) und dem Software Competence Center Hagenberg (SCCH) ein Machine-Learning-Zertifizierungsschema entwickelt. Dieses beurteilt KI-Anwendungen und im Gegensatz zu anderen Prüfungsinstituten nicht lediglich die Entwicklungsprozesse. Das Schema beschränkt sich aktuell auf Supervised-Learning-Modelle. Weitere sollen nach und nach folgen.

Die richtige Prüfung für das Zertifikat

Doch wie prüft man? “Es ist wichtig, dass man KI-Anwendungen so trainiert, dass sie zu einem statistischen Maß dort funktionieren, wo man möchte”, erklärt Bernhard Nessler, Research Manager für Deep Learning und Certification beim Software Competence Center Hagenberg, im Gespräch mit brutkasten. Seit vier Jahren ist er an der Konzipierung des Zertifizierungsprozesses beteiligt.

In einem Entwurf eines Positionspapier von Nessler, Sepp Hochreiter (JKU) und Thomas Doms, Sicherheits- und KI-Experte des TÜV Austria, betonen diese die Notwendigkeit der statistischen Prüfung. Man stelle sich ein neues Küchenmesser vor. Wie beim Machine Learning wird es trainiert: An reifen Wassermelonen, Äpfeln, grünem Brokkoli und anderem Gemüse. Ist das Training abgeschlossen, versucht man es zu nutzen. Zwar klappe es bei den genannten Objekten, bei anderen tauchen aber Probleme auf: Es schneidet bei Äpfel der Boskop-Sorte nicht durch, Gurken werden zerquetscht, auch die Anwendung bei unreifen Melonen oder außerhalb der Küche ist nicht einwandfrei möglich.

“Wenn ich die Anwendung trainiert habe, mit etwas zu funktionieren, dann ist sie dafür optimiert”, erklärt Nessler. Wichtig sei zu wissen, wie gut sie bei anderen Fällen arbeitet, die wir erwarten würden. Daher sei die Definition entscheidend für die Beurteilung der Funktionalität, die auch Risiken bzw. Aspekte wie Sicherheit und Fairness umfasst.

Anwendungsweck genau definieren

“Wir können nicht sagen: Das Messer ist zum Gemüse schneiden.” Das wäre laut Nessler zu vage und daraus würden “schlechte und unzuverlässige Modelle” werden, die unvorhersehbar sind. Besser wäre beispielsweise zu fragen, wie zuverlässig funktioniert das Messer, wenn ich in einer europäischen Haushaltsküche Gemüse schneide, das zur Zubereitung einer Mahlzeit vorgesehen und im Supermarkt erhältlich ist.

Alle möglichen Fälle wären unmöglich zu prüfen. Man müsse etwas definieren, wo einzelne Samples gezogen werden können. Also in diesem Fall zufällige Testobjekte in Haushaltsküchen in Europa. “Das macht man dann 10.000 Mal – dann kann ich eine Prozentzahl ermitteln und ein statistisches Maß definieren.” Alle anderen Messmethoden seien eine “Illusion”. Bei Anwendungen wie einem KI-Bildgenerator sei das nicht so tragisch. “Jetzt stelle man sich statt dem Messer aber einen Küchenroboter vor, der den Nutzer:innen schaden kann”, sagt Nessler.

Abgesehen von der Funktionalität, müsse man Nessler nach auch die Definition selbst prüfen. Dabei beachtet man unter anderem auch den ethischen Aspekt. “Wenn eine Anwendung bis auf 2 Prozent bei allen Menschen in Europa funktioniert, aber jene 2 Prozent eine bestimmte Ethnie betreffen, dann haben wir ein Problem mit der Gleichbehandlung.”

Lücke im AI Act

Der AI Act ist das weltweit erste Gesetz für KI-Regulierung. Nessler sieht das Gesetzespaket kritisch: “Es fehlt die echte Prüfung der Funktion nach mathematischen Machine-Learning-Methoden, die seit 40 Jahren wohlbekannt sind.” Den verantwortlichen EU-Beamt:innen mangle es an Verständnis. Zwar habe man Expert:innen zugezogen, allerdings sei es laut Nessler schon allein nicht einfach zu bestimmen, wer tatsächlich die entsprechende Expertise aufweist. Von jenen “absolut höchst gefragten” Wissenschafter:innen gäbe es auch “ganz Wenige”.

Gut abgedeckt sei hingegen die Dokumentation und transparente Einsicht. Nessler befürchtet allerdings, dass dafür von kleineren Startups viel Arbeitszeit und Arbeitskraft gefordert wird, die wiederum beim Nachweis der funktionalen Vertrauenswürdigkeit fehlen könnte.

Langwierige Verbesserungen

Nach dem sich das EU-Parlament am 14. Juni über seine Verhandlungsposition entschieden hat, hat der Trilog unmittelbar begonnen. “Die Grundrichtung und die Grundprinzipien des AI Acts, nämlich der risikobasierte Ansatz, die Anknüpfung an eine KI-Definition und die Ausrichtung auf Elemente von vertrauenswürdige KI werden bleiben. Im Detail können und werden sich sehr wahrscheinlich noch Aspekte und Weichenstellungen im AI Act ändern”, erklärt Jeannette Gorzala, Rechtsanwältin und Vizepräsidentin des Europäischen KI-Forums.

Laut Gorzala wird erwartet, dass der AI Act Ende des Jahres beschlossen wird und etwa 2025 voll anwendbar ist. Danach dürfte es dauern bis etwaige Verbesserungen vorgenommen werden. “Die Effekte und die Umsetzung des AI Acts wird von den europäischen Gesetzgebern für einen Zeitraum von rund 5 Jahren beobachtet, damit wären wir ab Inkrafttreten schon bei 2030.” Wie schnell Anpassungen hänge aber von den angedachten Änderungen ab. “Je umstrittener, desto länger wird der Prozess dauern”, sagt Gorzala.

Große Nachfrage, aber noch keine Zertifikate

Laut Nessler stehen für das TÜV-Austria-Zertifikat schon einige Klienten in der Pipeline. Von Startups oder Produktentwickler:innen, die vor der Gründung stehen bis hin zu größeren Unternehmen aus dem Medizin- und Automobilbereich sowie anderen größeren Industrien. Namen dürfe er noch nicht nennen.

Im TÜV-Austria-Prüfkatalog werden unterschiedliche Ebenen behandelt von der Datenquelle, Zuverlässigkeit bis hin zu ethischen Fragen. Pilotprojekte werden aktuell schon untersucht. Zertifikate wurden bis jetzt noch nicht erteilt. Laut Nessler seien auch viele Anwendungen noch nicht soweit, um ein Zertifikat zu erhalten.

Deine ungelesenen Artikel:
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5
27.01.2025

Open Source und KI: “Es geht nicht darum, zu den Guten zu gehören”

Nachlese. Die Nutzung von Open-Source-Modellen eröffnet Unternehmen auch im KI-Bereich weitreichende Möglichkeiten. Es gibt dabei aber auch einiges zu bedenken. Darüber und mehr diskutierten in Folge 5 von "No Hype KI" Stephan Kraft von Red Hat, Florian Böttcher von CANCOM Austria, Natalie Ségur-Cabanac von Women in AI und Patrick Ratheiser von Leftshift.One.
/artikel/no-hype-ki-folge-5

“No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.

Kollaborativ, transparent, frei zugänglich und nicht profit-orientiert – mit Open-Source-Software wird eine Reihe von Eigenschaften assoziiert. Und oftmals stehen bei der Nutzung ethische Überlegungen im Zentrum. Dabei gibt es auch ganz praktische Gründe, die für eine Verwendung durch Unternehmen sprechen – auch bei der Implementierung von KI-Anwendungen, ist Stephan Kraft, Community Advocate & Business Development OpenShift & Application Services bei Red Hat, überzeugt. In Folge fünf der Serie “No Hype KI” diskutierte er dieses und weitere Themen mit Florian Böttcher, Solution Architect bei CANCOM Austria, Natalie Ségur-Cabanac, Policy Lead bei Women in AI und Patrick Ratheiser, Gründer & CEO von Leftshift.One.

“Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”

“Ich will das Thema ein Stück weit aus dieser emotionalen, moralisierenden Ecke herausholen”, sagt Stephan Kraft. Für Red Hat als weltweit führenden Anbieter für Open-Source-Lösungen für Unternehmen gehen die Argumente für eine Nutzung nämlich weit darüber hinaus. “Es geht nicht darum, Open Source als Selbstzweck zu sehen, um zu den Guten zu gehören”, so der Experte. Tatsächlich sei die Verwendung von Open Source gerade bei der Etablierung von KI im Unternehmen für Startups und KMU eine wichtige Weichenstellung.

Offenheit, um Diskriminierung entgegenzuwirken

Auch Natalie Ségur-Cabanac sieht Open Source als “Key Technology” im KI-Bereich. Für “Women in AI” spiele die Offenheit eine zentrale Rolle: “Diese Offenheit braucht es, um Diskriminierung entgegenzuwirken.” Open Source verbessere den Zugang für Frauen zur Technologie, die Abbildung von Frauen in den Daten und es vergrößere die Möglichkeiten in der Forschung. Man müsse aber auch aufpassen, ob Software wirklich so offen sei, wie behauptet, sagt sie bezogen auf die aktuellen Diskussionen rund um OpenAI, das sich – ursprünglich als offenes Projekt gestartet – zum profitorientierten Unternehmen entwickelte. Es brauche auch eine klare Definition, was “open” sei.

Masse an Möglichkeiten

Leftshift.One-Gründer Patrick Ratheiser betont auch die schiere Masse an Möglichkeiten, die Open Source bietet. “2021 hatten wir weltweit Zugriff auf circa 5.000 Open-Source-Modelle. Jetzt sind es bereits mehr als eine Million.” Die Nutzbarkeit sei also klar gegeben, zudem biete die Technologie eine gewisse Unabhängigkeit und werde über ihre Vielfalt zum Innovationstreiber.

Ist Open Source immer die beste Lösung?

Doch bedeutet das, dass Open Source immer die optimale Lösung ist? Ratheiser sieht das differenziert: “Es ist ganz wichtig zu erkennen, was der Kunde braucht und was in dem Fall gerade notwendig ist. Egal, ob es nun On-Premise, in der Cloud, Open Source oder Closed Source ist.” Florian Böttcher von CANCOM Austria pflichtet hier bei: “Wir setzen genau so auf hybrid.”

Datenstruktur im Hintergrund ist entscheidend

Ein Thema, bei dem bei Open Source Vorsicht geboten ist, spricht Natalie Ségur-Cabanac an. Besonders wichtig sei es bei KI-Anwendungen, eine gute Datenstruktur im Hintergrund zu haben. “Die Verantwortung, dass ein Modell mit sauberen Daten trainiert worden ist, liegt bei den Anbietern. Bei Open Source verschwimmt das ein bisschen. Wer ist wofür zuständig? Das ist eine Herausforderung für die Compliance zu schauen, wo man selbst verantwortlich ist und wo man sich auf einen Anbieter verlassen kann.”

Compliance: Großes Thema – mehr Sichereheit mit professioneller Unterstützung

Stephan Kraft hakt hier ein. Genau aus solchen Gründen gebe es Unternehmen wie Red Hat, die mit ihrem Enterprise-Support für Open-Source-Lösungen die Qualitätssicherung auch im rechtlichen Bereich übernehmen. “Das ist ein ganz wichtiger Teil unseres Versprechens gegenüber Kunden”, so Kraft. Unbedacht im Unternehmen mit Open Source zu arbeiten, könne dagegen in “Compliance-Fallen” führen, pflichtet er Ségur-Cabanac bei.

Das sieht auch Patrick Ratheiser als Thema bei Leftshift.One: “Unsere Lösung ist Closed Source, wir setzen aber im Hintergrund Open Source ein. Wichtig ist, dass wir dem Kunden Compliance garantieren können.” Stephan Kraft empfiehlt Unternehmen bei der Open-Source-Nutzung: “Man kann nicht immer gleich die neueste ‘bleeding edge’-Lösung nehmen sondern sollte etwas konservativer herangehen.”

Infrastruktur: Gut planen, was man wirklich braucht

Unabhängig davon, ob man nun Open Source oder Closed Source nutzt, braucht es für die Nutzung von KI die richtige Infrastruktur. “Es kommt natürlich auf den Use Case an, den ein Unternehmen umsetzen will. Da sind die Anforderungen an die Infrastruktur sehr unterschiedlich”, grenzt Florian Böttcher ein. CANCOM Austria unterstützt seine Kunden in genau der Frage. Anwendungen wie das Training von KI-Modellen würde aus gutem Grund kaum in Österreich umgesetzt. “KI ist sehr stromhungrig und entwickelt viel Hitze. Das ist schwierig für ein eigenes Data-Center im Unternehmen, gerade wenn man die Strompreise in Österreich ansieht”, so Böttcher.

“Rechenleistungs-Hunger” von KI könnte sich in Zukunft verringern

Wichtig sei es letztlich, sich als Unternehmen sehr klar darüber zu sein, was man umsetzen wolle. “Danach, welche Software-Lösung man für seinen Use Case einsetzen muss, richtet sich auch die Infrastruktur”, so Böttcher. Er erwarte aber auch, dass die KI-Modelle im nächsten Entwicklungsschritt effizienter werden und der “Rechenleistungs-Hunger” sich verringere.

Patrick Ratheiser ergänzt: “Es ist grundsätzlich eine Kostenfrage.” Unternehmen müssten sich sehr gut überlegen, ob sie ein eigenes LLM (Large Language Model) betreiben und dieses sogar selbst trainieren wollen, oder lieber doch eine Usage-basierte Lösung wählen. Er sehe bei österreichischen Unternehmen – auch bei größeren – eine klare Tendenz zur zweiten Variante. “Es lässt sich deutlich schneller einrichten, ist kalkulierbarer und auch viel schneller skalierbar”, erklärt Ratheiser.

Etwa im Forschungsbereich sei es jedoch wichtig und notwendig, auch eigene LLMs und die damit verbundene Infrastruktur zu betreiben. Doch auch die Möglichkeit von hybriden Lösungen biete sich an. “Man kann mittlerweile auch Teile in der Cloud lassen und Teile On-Premise. Man kann etwa nur ein datenschutzsicheres LLM selbst betreiben”, erklärt der Experte, der auch bei der Wahl der genutzten Modelle einen hybriden Ansatz empfiehlt: “Man braucht nicht für alle Use Cases das neueste Modell. Manchmal braucht man überhaupt kein LLM.”

Datenschutz: Einige Herausforderungen bei LLMs

Stichwort: Datenschutz. Hier schafft die europäische Datenschutzgrundverordnung (DSGVO) im KI-Bereich besondere Herausforderungen, weiß Natalie Ségur-Cabanac, die vorab betont: “Ich persönlich halte die DSGVO für ein gutes Regulierungswerk, weil sie sehr viel Spielraum gibt. Ich sage immer: Datenschutz ist sehr komplex, aber nicht kompliziert.” Konkret seien etwa der Grundsatz der Zweckbezogenheit, also dass man Daten nur für konkrete Zwecke einsetzen darf, und dass man sie minimierend einsetzen muss, relevant für den KI-Bereich. “Da haben wir schon einen Konflikt, weil man ja [bei LLMs] erst einmal schaut, was man aus möglichst vielen Daten machen kann”, so die Expertin.

Ist KI rechtlich innerhalb der EU sogar per se in einem Graubereich?

Auch Transparenzbestimmungen – sowohl in der DSGVO als auch im AI-Act der EU – seien zu beachten. “Wenn ich KI verwende, muss ich auch wissen, was drinnen ist”, fasst Ségur-Cabanac zusammen. Ist KI also rechtlich innerhalb der EU sogar per se in einem Graubereich? “Nein, das glaube ich nicht. Aber man muss seine Hausaufgaben schon gut machen”, sagt die Expertin. Wichtig sei daher auch die im Rahmen des EU-AI-Acts eingeforderte KI-Kompetenz in Unternehmen – im technischen und rechtlichen Bereich.

KI-Kompetenz als zentrales Thema

Patrick Ratheiser stimmt zu: “Neben der Technologie selber sind bei unseren Kunden die Mitarbeiter ein Riesen-Thema. Man muss sie nicht nur wegen dem AI-Act fit bekommen, sondern es geht darum, sie wirklich auf die Anwendungen einzuschulen.” Wichtig seien dabei auch die Kolleg:innen, die sich bereits mit dem Thema auskennen – die “Pioniere” im Unternehmen. “AI Literacy ist sicherlich das Thema 2025 und in nächster Zeit. So, wie wir gelernt haben, mit dem Smartphone umzugehen, werden wir es auch mit generativer KI lernen”, so Ratheiser.

“Einfach einmal ausprobieren”

Stephan Kraft ergänzt: Neben einer soliden Datenbasis und der notwendigen Kompetenz brauche es bei KI – gerade auch im Bereich Open Source – noch etwas: “Einfach einmal ausprobieren. Es braucht auch Trial and Error. Das ist vielleicht oft das Schwierigste für CFOs und Geschäftsführer.” Dieses Ausprobieren sollte aber innerhalb eines festgelegten Rahmens passieren, damit die KI-Implementierung gelingt, meint Natalie Ségur-Cabanac: “Unternehmen brauchen eine KI-Strategie und müssen wissen, was sie mit der Technologie erreichen wollen.” Auch sich mit den zuvor angesprochenen rechtlichen Anforderungen – Stichwort Compliance – zu beschäftigen, komme zeitlich erst nach der Festlegung der Strategie.


Die gesamte Folge ansehen:

Die Nachlesen der bisherigen Folgen:

Folge 1: “No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?

Folge 2: “Was kann KI in Gesundheit, Bildung und im öffentlichen Sektor leisten?

Folge 3: “Der größte Feind ist Zettel und Bleistift”: Erfolgsfaktoren und Herausforderungen in der KI-Praxis”

Folge 4: KI-Geschäftsmodelle: “Wir nutzen nur einen Bruchteil dessen, was möglich ist”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Der Inhalt des Artikels hat gesellschaftspolitische Auswirkungen, da er auf die Notwendigkeit von Zertifikaten für KI-Anwendungen hinweist, insbesondere für Anwendungen, die eine hohe Verlässlichkeit aufweisen müssen. Dies ist von Bedeutung für die Sicherheit und Funktionalität von KI-Anwendungen in verschiedenen Bereichen wie dem Gesundheitswesen, der Automobilindustrie, der Produktion und dem Alltag. Die Einführung von Zertifikaten und Prüfverfahren kann dazu beitragen, das Vertrauen in KI-Anwendungen zu stärken und die ethischen und rechtlichen Aspekte von KI zu berücksichtigen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Das Machine-Learning-Zertifikat “Trusted AI” des TÜV Austria hat das Potenzial, die Anwendung von KI-Anwendungen sicherer zu machen und das Vertrauen der Verbraucher und Unternehmen zu stärken. Unternehmen aus verschiedenen Branchen, darunter Medizin und Automobil, haben bereits Interesse an dem Zertifikat gezeigt. Eine erfolgreiche Zertifizierung könnte dazu beitragen, das Risiko potenzieller Schäden durch fehlerhafte KI-Anwendungen zu reduzieren und gleichzeitig die Akzeptanz von KI zu erhöhen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Als Innovationsmanager:in sollten Sie sich mit den aktuellen Entwicklungen im Bereich der Künstlichen Intelligenz und der Zertifizierung von KI-Anwendungen auseinandersetzen. Das Trusted AI-Zertifikat vom TÜV Austria ermöglicht Unternehmen, die Verlässlichkeit von Machine-Learning-Anwendungen nachzuweisen und somit das Vertrauen der Kunden und der Öffentlichkeit zu stärken. Es ist wichtig, dass KI-Anwendungen ein entsprechendes Gütesiegel vorweisen können, insbesondere bei sicherheits- oder finanzkritischen Anwendungen. Daher sollten Sie sich über das Zertifizierungsschema informieren und gegebenenfalls prüfen, ob es für Ihre innovativen KI-Projekte relevant und nützlich sein könnte.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Als Investor:in ist es wichtig, KI-Anwendungen zu unterstützen, die über ein zuverlässiges Gütesiegel verfügen. Der TÜV Austria hat in Zusammenarbeit mit der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg ein Machine-Learning-Zertifizierungsschema namens “Trusted AI” entwickelt, das eine statistische Prüfung der Funktionalität und Definition von KI-Anwendungen beinhaltet. Dies kann dazu beitragen, das Risiko unvorhersehbarer Probleme und ethischer Fragen bei der Verwendung von KI zu minimieren, was für Investitionen in diesem Bereich von Bedeutung sein kann.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Das Thema der Zertifizierung von Künstlicher Intelligenz (KI) wird in Zukunft immer wichtiger werden, wenn es um verlässliche KI-Anwendungen in verschiedenen Bereichen wie der Automobil- und Medizinindustrie geht. Dieser Artikel beschreibt eine neue Zertifizierungsmethode für KI-Anwendungen namens “Trusted AI”, die von TÜV Austria, der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg entwickelt wurde. Als Politiker:in ist es wichtig, sich über solche neuen Entwicklungen im KI-Bereich auf dem Laufenden zu halten und die Regulierung und Standards für KI-Anwendungen zu überwachen.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Der Artikel behandelt die Entwicklung eines Machine-Learning-Zertifizierungsschemas namens Trusted AI durch den TÜV Austria in Kooperation mit der Johannes Kepler Universität Linz und dem Software Competence Center Hagenberg. Die Zertifizierung beurteilt KI-Anwendungen auf ihre Funktionalität, Sicherheit und Fairness. Eine korrekte Definition des Anwendungswecks und die statistische Prüfung sind von wesentlicher Bedeutung. Experten äußern auch Bedenken hinsichtlich des AI Acts, des weltweit ersten Gesetzes für KI-Regulierung, aufgrund von fehlenden Prüfungsmethoden und möglichen Auswirkungen auf kleinere Start-ups. Das TÜV-Austria-Zertifikat stößt laut Experten auf eine hohe Nachfrage, aber es wurden noch keine Zertifikate erteilt.

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

  • Bernhard Nessler
  • Jeannette Gorzala
  • Sepp Hochreiter
  • Thomas Doms

So funktioniert das KI-Zertifikat von TÜV Austria

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

  • TÜV Austria
  • Johannes Kepler Universität Linz (JKU)
  • Software Competence Center Hagenberg (SCCH)

So funktioniert das KI-Zertifikat von TÜV Austria