✨ AI Kontextualisierung
Die Faszination für künstliche Intelligenz (AI) bzw. vom Menschen geschaffene Intelligenz ist fast so alt wie die Menschheit selbst. Bereits in der griechischen Mythologie finden sich mechanische, aus Bronze gefertigte Diener, die über eigenständigen Willen verfügen. Die Geburtsstunde des Begriffs Artificial Intelligence war 1956, als sich unter der Führung von Marvin Minsky eine Gruppe von Wissenschaftlern für einen achtwöchigen Workshop in Dartmouth traf, in dem der Grundstein für die Disziplin gelegt wurde. Doch was ist heute der Stand der Dinge in der Artificial Intelligence?
AI lässt sich grob folgendermaßen unterteilen:
- Narrow AI: Systeme, die eng abgesteckte, repetitive Aufgaben automatisieren können, z.B. Bilderkennung,
- Artificial General Intelligence: AI, die in der Lage ist, selbstständig neue Probleme zu erkennen und zu lösen, z. B. Data in Star Trek
- Conscious AI: Sie verfügt über ein eigenes Bewusstsein und Emotionen, z.B. HAL 9000 in „2001: Odyssee im Weltraum“.
+++Zombies, Aliens & Star Trek: “Lemmings”-Inkubator holt Silicon Valley Mindset nach Wien+++
Stand der Dinge in der Artificial Intelligence
Die gewählten Beispiele zeigen: Alle heutigen als AI betitelten Systeme fallen unter Narrow AI, da sie weder in der Lage sind, das Gelernte zu generalisieren, noch Emotionen fühlen können oder gar über ein eigenes Bewusstsein verfügen. Der Befund zum Stand der Dinge in der Artificial Intelligence ist also – zumindest für Science Fiction Fans – eher ernüchternd.
Von Machine und Deep Learning
Innerhalb der Narrow AI sind es vor allem Machine Learning und im Speziellen Deep Learning, die den aktuellen Hype losgetreten haben. Machine Learning ist eine Technik, die bereits seit den 1950ern existiert. Sie beschreibt Algorithmen, die sich in Abhängigkeit von den Eingangsdaten selbst anpassen können. Auf diese Art können Muster und Gesetzmäßigkeiten in Datenbeständen erkannt werden, um darauf basierend Vorhersagen zu treffen. Typische Anwendungsgebiete für Machine Learning sind etwa Spamfilter, Prognosesysteme (z. B. Wetter oder Real Estate) sowie Betrugserkennung.
Deep Learning, das eine Subkategorie von Machine Learning darstellt, basiert auf künstlichen neuronalen Netzen, weshalb die Begriffe Deep Learning und (Artificial) Neural Networks fast austauschbar verwendet werden. Das Kernelement sind dabei künstliche Neuronen, die eine beliebige Anzahl von Eingängen haben können, aber nur einen Ausgang. Für jeden Eingang gibt es ein sogenanntes Gewicht, das bestimmt, wie wichtig er für den Ausgang ist.
Lernen durch Errors
Das “Deep” in Deep Learning bezieht sich auf die Anordnung der Neuronen, die oft in mehreren Schichten erfolgt. Am Ausgang des gesamten Netzes erfolgt mittels der sogenannten “Error Function” eine Überprüfung, wieweit der Vorhersagewert vom tatsächlichen Wert der Trainingsdaten abweicht. Dieser Error wird danach dazu verwendet, die Gewichte der einzelnen Neuronen zu adjustieren – das System lernt somit. Vereinfacht sieht das bei einer Vorhersage über Wohnungspreise folgendermaßen aus: Das neuronale Netz erhält als Eingangsdaten eine Liste an Wohnungen, bei denen neben dem Verkaufspreis und der Lage auch Daten wie z. B. Verkäufer und Maklerbüro zu finden sind. Nach mehreren Durchläufen erkennt das Netz, dass z.B. “Verkäufer” und “zuständiges Maklerbüro” nur einen sehr geringen Einfluss auf den Verkaufspreis haben, und setzt dementsprechend die Gewichte für die entsprechenden Eingänge neu.
Viele Anwender, wenige “echte AI-Startups”
Soviel zum technologischen Stand der Dinge in der Artificial Intelligence. Zu beachten gibt es in der Beurteilung von AI-Produkten aber noch einen weiteren Punkt. Denn die meisten Firmen, die Artificial Intelligence nutzen, haben sie nicht selbst kreiert. Was unterscheidet also ein “echtes AI-Startup” von reinen Anwendern?
Hier ein paar Anhaltspunkte:
- Erstellen und Trainieren von eigenen Modellen (Deep Learning, Machine Learning)
- Eigenständige Implementierung von domänenspezifischen Lösungen, teilweise on top von bestehenden AIFrameworks wie z. B. Google TensorFlow, PyTorch oder Keras, und
- über Verwendung und Kombination von Frameworks hinausgehende Anwendungen. Im Fall von ChatbotFrameworks wie IBM Watson und Facebooks wit.ai wären das z.B. eigene Sprachmodelle für Umgangssprache.
Dieser Artikel erschien in gedruckter Form im aktuellen Brutkasten Magazin #6