✨ AI Kontextualisierung
Künstliche Intelligenz (KI) boomt – nicht zuletzt aufgrund der deutlich gestiegenen Rechenleistung und der mittlerweile vorhandenen großen Datenmengen wurden im vergangenen Jahrzehnt aufsehenerregende Fortschritte im Bereich Machine Learning (ML) und insbesondere Deep Learning möglich. Auch an der Technischen Universität Wien wird seit Jahren intensiv zu künstlicher Intelligenz geforscht. Nun wurde ein neues Forschungszentrum gegründet, das diese Woche eröffnet wird – das Center for Artificial Intelligence and Machine Learning (CAIML).
Das Besondere dabei: Das Zentrum wird sich nicht nur auf Machine-Learning-Ansätze konzentrieren, sondern sich auch mit der klassischen oder symbolischen Artificial Intelligence beschäftigen – und die beiden Stränge zusammenführen. “Diese beiden Lager, die symbolisch arbeitende AI und das maschinelle Lernen, haben sich aus historischen Gründen unterschiedlich entwickelt”, sagt Professor Clemens Heitzinger vom Institut für Analysis und Scientific Computing. “Es zeigt sich aber immer deutlicher, dass erst ein Zusammenspiel der Methoden intelligente Systeme ermöglicht.”
Im Forschungsfeld der künstlichen Intelligenz hätten sich “im Lauf der Jahrzehnte verschiedene Communities entwickelt, die nicht so gut miteinander verflochten sind wie sie sein sollten“, sagt auch Professor Stefan Woltran vom Institut für Logic and Computation. “Wir möchten diese unterschiedlichen Richtungen nun zusammenführen.”
Symbolische KI vs. Machine Learning
Wie aber unterscheiden sich die beiden genannten Ansätze überhaupt? Die symbolische künstliche Intelligenz stützt sich auf klar definierte Regeln. Sie wird beispielsweise in Schachcomputern verwendet. Diese werden programmiert und können gegen die vorgegebenen Regeln nicht verstoßen. Der Computer arbeitet dabei “symbolisch” – mit klar definierten Objekten wie eben Schachfiguen, die bewegt werden. Die Folge: Es ist nachvollziehbar, wie der Algorithmus vorgeht und warum er welche Schritte setzt.
Im maschinellen Lernen ist dies dagegen nicht immer der Fall: Die Algorithmen werden anhand großer Datenmengen trainiert – sie analysieren diese Datensätze mit statistischen Methoden und “lernen” dabei, ziehen also aus den Daten ihre Rückschlüsse. Insbesondere bei vielen der aktuell populären Deep-Learning-Ansätzen ist dabei von außen nicht nachvollziehbar, warum ein Modell zu einem bestimmten Ergebnis gekommen ist – die Modelle agieren als “Black Box”, deren Entscheidungskriterien unklar bleiben, auch wenn sie eine bestimmte Aufgabe erfolgreich lösen.
Potenzial für Kombinationsansatz im Bereich “Explainable AI”
In der Forschung hat sich daher schon länger der Bereich “Explainable AI” etabliert, der sich mit der Nachvollziehbarkeit von KI-Algorithmen auseinandersetzt – und in dem die TU-Forscher das große Potenzial für die Verbindung der beiden Denkschulen sehen. “Wenn ein Algorithmus nützliche Ergebnisse liefert, ist das zwar ein wichtiger erster Schritt, aber man möchte eine künstliche Intelligenz nicht einfach nur als Black Box betrachten, sondern man will auch verstehen, wie sie zu ihrem Ergebnis gekommen ist, und wie zuverlässig dieses Ergebnis ist”, sagt Clemens Heitzinger. “Um das zu erreichen, müssen wir die unterschiedlichen Denkschulen vereinen.”
Welche konkreten Schritte sind mit dem neuen Zentrum nun geplant? Mit Forschungsinitiativen, Exzellenzprogrammen und Ausbildungs-Maßnahmen soll die Zusammenarbeit innerhalb der TU Wien gestärkt werden. Auch die Verbindung zwischen Grundlagenforschung und Anwendung soll mit dem Zentraum vertief werden: Das bestehende Know-how an der TU soll Forschungsgruppen zugänglich gemacht werden, die KI-Ansätze als Werkzeuge für ihre eigene Forschung einsetzen sollen. Zudem soll die Zusammenarbeit mit Partnerunternehmen aus der Industrie verstärkt werden.
Eröffnet wird das CAIML am Donnerstag, den 2. Dezember, um 16.00 Uhr. Dabei wird unter anderem Turing-Preisträger Leslie Valiant von der Harvard University eine Keynote halten.