✨ AI Kontextualisierung
Machen Sie sich Sorgen um Ihre Daten? Etwa wenn es um den neuen Impfpass geht? Eine unverhältnismäßig große “Gier nach Daten” werfen zahlreiche Medien diesem neuen Instrument vor, das uns zurück zur Normalität begleiten soll nach diesem Pandemie-Ausnahmezustand. Die Frage nach der Verhältnismäßigkeit bei Datenzugriffen des Staates ist berechtigt und wichtig. Unsere sensiblen Daten wollen beschützt werden.
Konkret wollen wir uns vor einem Schaden schützen, der entsteht, wenn jemand unsere persönlichsten Daten – für was auch immer – missbraucht. Aber wer beschützt uns eigentlich vor Schäden eines Datenmangels? Wer beschützt uns vor einem “falschen Datenschutz”, also einem, der vielleicht unsere Daten besser schützt als unser Leben und Wohlergehen?
Wozu braucht man auch unsere Daten?
Daten sind hervorragend dafür geeignet, die Welt zu beschreiben. Sie beschreiben die Wirklichkeit heute so detailliert, wie wir uns das wünschen. Moderne Digitaltechnologie macht es möglich. Damit können wir die Realität faktisch besser einordnen, verstehen und Sachverhalte analysieren. Und noch wichtiger, wir können basierend auf diesen Daten-Mustern immer bessere Entscheidungen treffen (auch automatisiert). Wie in der letzten Kolumne beschrieben, entwickeln wir uns von der Daten- in eine Entscheidungsökonomie.
Dieses Prinzip, aus Daten zu lernen, nutzen wir in der modernen Medizin genauso wie im Finanzwesen, der Mobilität, der Bildung, in Sicherheitsfragen oder eben in staatlichen Bereichen und der Forschung. Die Frage also “wer braucht schon unsere Daten” ist folgerichtig zu beantworten mit: Jeder, der etwas besser verstehen und darauf aufbauend besser entscheiden möchte. Fortschritt braucht eine moderne Daten-Kultur!
Forschung wirkt, aber nur mit den richtigen Daten
Bleiben wir beim Beispiel Pandemie. Wenn Komplexitätsforscher Peter Klimek versucht herauszufinden, wo künftige pandemische Risiken liegen, hat er es mit hoch-komplexen Mustern zu tun. Qualität und Verfügbarkeit guter Daten aus dem epidemiologischen Geschehen sind daher eine wichtige Basis für brauchbare Vorhersagemodelle. Die Nutzung geschieht in diesen Bereichen meist mithilfe sogenannter “pseudonomysierter Daten”. Das bedeutet, anstatt von z.B. richtigen Namen, werden irgendwelche Zahlen und Buchstaben verwendet, um die Datensätze anonym zu machen. Denn es geht nicht um Herrn Bauer und Frau Mayer als Personen, sondern um statistische Werte, deren Gewichtung und Entwicklung. Analysten und Forscher tun dies, um elementar wichtige Fragen für uns zu beantworten. Etwa, wie können wir uns als Gesellschaft wieder maximal viel Freiheit gewähren, die Schwächsten schützen oder der Wirtschaft zum Aufschwung verhelfen? Wir sind als Gesellschaft darauf angewiesen, dass die Erkenntnisse aus solchen Datenmodellen möglichst präzise und aussagekräftig sind.
Wenn wir uns also (zu Recht) die Frage stellen, welchen Schaden wir nehmen könnten, wenn wir einer Institution oder Behörde Zugriff auf bestimmte Daten erlauben, dann sollten wir uns fortan auch fragen, welchen Schaden wir nehmen, wenn wir dies nicht tun! Ja, es kann mit Risiken verbunden sein, manche Datensätze zusammenzuführen. Es kann aber auch in einem ethischen Dilemma münden, es nicht zu tun.
Wir sind das Abwägen von Risiken eigentlich gewohnt
Wenn wir das Auto als Transportmittel unserer Wahl sehen, um von A nach B zu kommen, wägen wir etliche Fragestellungen ab. Ist das Auto sicher, hat es einen Gurt, Airbags, vielleicht einen Seitenaufprallschutz? Sicherheit ist uns wichtig. Aber die Angst vor realen Risiken verhindert nicht, dass wir sogar täglich ins Auto steigen. Wir wissen, dass etwa 40.000-mal pro Jahr ein Unfall passiert. In 400 Fällen verlieren Österreicher*innen sogar ihr Leben dabei.
Wir haben in wirklich vielen Themen des Lebens gelernt, Nutzen und Gefahr sinnstiftend gegeneinander abzuwiegen. In der Datenökonomie ist uns das noch nicht gelungen.
Datenschutz: Kritik am Regulierungsmonster EU
Bengt Holström, Professor am MIT und Wirtschaftsnobelpreisträger von 2016, bringt es in einem Ö1-Interview auf den Punkt. Als ihm die Frage gestellt wird, ob Europa in der digitalen Ökonomie zurückfalle, antwortet er: “Europa bemerkt gar nicht, welchen positiven Wert Daten darstellen”. Sorgen bereiteten ihm die sozialen Medien. Die EU aber würde (sinnvolle, Anm.) Daten-Anwendungen stark regulieren anstatt die sozialen Netzwerke. Die kommerzielle Auswertung der Daten in Europa müsse endlich positiver gesehen werden. Europa sei auch deshalb global abgeschlagen im Digitalbereich, hinter den USA und China. Was Privacy und Datenschutz angehe, befinde sich Europa noch mental in der Zeit des Kalten Krieges.
Am Ende des Tages müssen wir zudem den Eigentumsbegriff von Daten gesellschaftlich neu bewerten. Wenn wir aus Daten nicht lernen dürfen, sondern sie beschützen wie physisches Eigentum, verhindern wir den Fortschritt.
Fazit
Smart gemachter Datenschutz ist wichtig, denn eine missbräuchliche Verwendung unserer Daten und ein daraus entstehendes Misstrauen in unsere Datenkultur hemmen unsere Entwicklung und den Glauben an unsere digitale Zukunft. Bürger*innen und Konsument*innen haben aber auch ein Anrecht auf die allerbeste Nutzenstiftung digitaler Dienste. Ansonsten werden wir das Ungleichgewicht, wer aus Daten lernen darf und tolle Anwendungen damit entwickelt und wer nicht, einfach nicht los.
Während ich als europäischer Kolumnist im Zuge dieser Recherche das 20-ste Cookie-Fenster im Browser wegklickte, um “meine Daten zu schützen”, und unsere Behörden viel zu wenig (gute) Daten haben, um die allerbesten Entscheidungen in dieser Pandemie zu treffen, hat Google dieser Tage LaMDA gestartet. Das ist vielleicht eines der größten “Daten-Lern”-Projekte, das es je gab. Mit LaMDA bekommen wir eine Technologie, die mit Menschen über alle erdenklichen Themen kommunizieren und diskutieren kann. Vielleicht auch darüber, wie man eine Pandemie bewältigt. Das Sprach-Modell kann das, weil es mit seiner KI über all diese Themen aus unfassbar großen Datensätzen und -Korpora lernen konnte und durfte. Das ist wunderbar, denn es gibt bestimmt viele sinnvolle Anwendungsmöglichkeiten dafür. Aber wir können diese Art des “Lernens” auch Organisationen und Institutionen ermöglichen, die sich um unsere Gesundheit, Bildung, Sicherheit und unseren Wohlstand kümmern!
Zum Autor
Mic Hirschbrich ist CEO des KI-Unternehmens Apollo.AI, beriet führende Politiker in digitalen Fragen und leitete den digitalen Think-Tank von Sebastian Kurz. Seine beruflichen Aufenthalte in Südostasien, Indien und den USA haben ihn nachhaltig geprägt und dazu gebracht, die eigene Sichtweise stets erweitern zu wollen. Im Jahr 2018 veröffentlichte Hirschbrich das Buch „Schöne Neue Welt 4.0 – Chancen und Risiken der Vierten Industriellen Revolution“, in dem er sich unter anderem mit den gesellschaftspolitischen Implikationen durch künstliche Intelligenz auseinandersetzt.