16.02.2023

Dieses Startup verhindert, dass dein Saugroboter deine Daten klaut

Apocrat, das Consent-Management-Startup aus St. Pölten, bietet eine Plattform für Nutzer:innen und Unternehmen. Mit seiner Arbeit will es die Nutzung und Verarbeitung von Daten sicher und datenschutzkonform im Überblick ermöglichen. Sie fokussieren sich auf den Datenschutz bei Smart-Home-Devices.
/artikel/apocrat-startup
Das Apocrat-Founderteam (v.l.): Armin Huremagic (CTO), Laura Kaltenbrunner (CMO und Alexander Jürgens (CEO) © Apocrat
Das Apocrat-Founderteam (v.l.): Armin Huremagic (CTO), Laura Kaltenbrunner (CMO) und Alexander Jürgens (CEO) © Apocrat

Das niederösterreichische Startup Apocrat hat eine Consent Management Plattform (CMP) für IoT-Geräte (Internet of Things) entwickelt und wendet sich damit sowohl an Nutzer:innen als auch an Anbieter von Endgeräten. Konkret fokussiert sich Apocrat auf Smart-Home-Geräte wie Staubsauger oder Smartwatches. Anbieter sollen die Consent-Management-Lösung von Apocrat in ihre Geräte integrieren können, während Nutzer:innen einen Überblick über ihren Datenschutz erhalten. Im brutkasten-Interview erklärt Apocrat-Geschäftsführer und Co-Founder Alexander Jürgens, wieso ihre Lösung für Smart-Home-Devices notwendig ist und welche rechtlichen Komponenten für User:innen und Anbieter in Europa zu beachten sind.

Worum geht es bei eurer Arbeit genau?

Apocrat bietet eine Lösung für die gesetzeskonforme Einholung von User Consent bei Internet-of-Things-Geräten (IoT) an. Wir bewegen uns also sowohl im rechtlichen als auch im technischen Umfeld. Der Hintergrund, warum das Einholen von Consent bei smarten Geräten so wichtig ist, sind die rechtlichen Rahmenbedingungen in Deutschland, Österreich und der ganzen EU. Die DSGVO (Datenschutzgrundverordnung) ist wahrscheinlich vielen ein Begriff, seither hat sich in Bezug auf die Einholung von User-Consent aber einiges getan: Wir bemerken das täglich, wenn wir beim Cookie-Banner auf Websites auf „akzeptieren“ klicken.

Während die Vorgaben für Websites relativ eindeutig waren, haben sich IoT-Geräte noch lange im rechtlichen Graubereich bewegt. Nun erfordert auch die Datenerhebung bei IoT-Geräten eine Zustimmung der Nutzer:innen, was allerdings nicht so einfach ist wie für Websites.

Ein Staubsaugroboter oder eine smarte Lichtsteuerung haben kein Display, auf dem man seine Zustimmung geben kann. Und genau da kommt Apocrat ins Spiel: Wir bieten Anbietern eine Software-Lösung, die sie direkt in ihre Geräte und ihre Steuerungsapp integrieren können. Über die App-Steuerung können Nutzer:innen dann ihre Zustimmung verwalten. Bisher bietet das noch kein anderes Unternehmen an.

Wie seid ihr auf die Idee zur Gründung von Apocrat gekommen?

Das Founder-Trio besteht aus CTO Armin Huremagic, CMO Laura Kaltenbrunner und mir, Alexander Jürgens als CEO. Wir kennen uns aus unserer Zeit an der FH St. Pölten, wo wir studiert und geforscht haben. Ursprünglich haben wir an der Idee eines Hardwaregeräts zur Kontrolle von Informationsflüssen bei smarten Geräten gefeilt. Wir sind dann auf eine vielversprechendere Herangehensweise umgeschwenkt und uns auf die Entwicklung einer Consent Management Plattform (CMP) für IoT-Geräte konzentriert.

Was unterscheidet euch von der üblichen Cookie-Abfrage?

Consent Management ist bei IoT-Geräten deutlich komplexer. Abgesehen davon, dass wir die User Experience transparent gestalten, werden bei IoT-Geräten gar keine Cookies verwendet, Apocrat arbeitet daher traffic-basiert. Die Software entscheidet dann, ob eine Datenabfrage eines Smart-Home-Geräts anhand der persönlichen User-Einstellungen erlaubt ist oder nicht. Die Consent-Einstellungen werden dafür zentral für jedes Endgerät in der Apocrat-Plattform gespeichert und in Regeln umformuliert, die wiederum an das Endgerät gesendet und von diesem für die Filterung des Traffics verwendet werden.

Warum der Fokus auf Smart-Home-Devices?

Mit dem Beschluss der DSGVO war der Umgang von personenbezogenen Daten
bei Smart-Home-Geräten zwar grundsätzlich geregelt, allerdings lag der Fokus auf Websites und weniger auf IoT-Geräten. Durch das TTDSG (Telekommunikation-Telemedien-Datenschutz-Gesetz) hat sich das geändert, jetzt wird verstärkt auch auf Smart-Home-Geräte geachtet – und dabei auch auf nicht-personenbezogene Daten. Mit unserem Produkt wollen wir den Nutzer:innen die Entscheidungshoheit über ihre Daten zurückgeben.

Habt ihr konkrete Beispiele, wofür Nutzer:innen ihre Zustimmung geben?

Nehmen wir wieder das Beispiel des Staubsaugroboters her. User:innen können zustimmen, dass durch die Verarbeitung der Nutzungsdaten der Staubsauger laufend verbessert und für den Einsatz im Wohnraum optimiert wird. Darüber hinaus können sie auch angeben, ob sie relevante Angebote und personalisierte Werbung basierend auf ihrem Verhalten bekommen möchten. In unserer Lösung werden alle Punkte einzeln und übersichtlich abgefragt, sodass User:innen völlig transparent einzelnen Punkten zustimmen und andere ablehnen können.

Die Zustimmung zur Datenerhebung und -verarbeitung wird klar über die App-Steuerung des smarten Geräts abgefragt. User:innen werden dabei nacheinander gefragt, zu welcher Datennutzung sie zustimmen möchten. Die individuellen Präferenzen werden auf der Apocrat-Plattform gespeichert und können dort bearbeitet werden.

Auch in der IT wird die Sicherheit bei Smart-Home-Devices kritisiert, da sie leicht zu hacken sind. Wie seht ihr das?

Tatsächlich stellen die vielen Daten, die IoT-Geräte generieren, oftmals auch ein Sicherheitsrisiko dar: Stellen Sie sich vor, Sie haben fünf smarte Geräte zu Hause, zum Beispiel einen Staubsaugroboter, einen Home-Assistenten wie Alexa, einen Lautsprecher, ein Fitnessarmband und eine intelligente Lichtsteuerung. Alle Geräte sammeln Daten, und Sie können ihre Zustimmung zur Datenverarbeitung nicht zentral verwalten.

Die Geräte sprechen auch miteinander, dadurch gibt es hier potenziell weitere Informationsflüsse. Somit kann viel leichter nachvollzogen werden, dass alle Geräte einer Person gehören, auch ohne, dass diese personenbezogene Daten verarbeiten. Und: Der Zugriff auf ein ungesichertes Gerät reicht aus, um Personen zielgenau zu identifizieren und beispielsweise über ein Fitnessarmband zu tracken. Staubsaugroboter wiederum verfügen über Pläne der gesamten Wohnung – auch diese Daten sollten nicht unkontrolliert weiterverbreitet werden.

Was sind aktuelle Herausforderungen für euer Startup?

Da wir die ersten Klagen basierend auf dem TTDSG schon im zweiten Halbjahr von 2023 erwarten, ist der Zeithorizont recht knapp. Um diesen Rückenwind zu nutzen, müssen wir die letzten Kinderkrankheiten beheben, die im Technikbereich oft bestehen. Nicht zuletzt sind wir aktuell auf der Suche nach Entwicklungspartnern bzw. Anbietern von smarten Geräten.

Deine ungelesenen Artikel:
23.12.2024

KI in Gesundheit, Bildung und öffentlichem Dienst: „Chancen nutzen, Risiken minimieren”

Nachlese. Was kann Künstliche Intelligenz in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten? Welche Chancen und Risiken bringt Künstliche Intelligenz mit sich? Wie lässt sich ihr Potenzial verantwortungsvoll nutzen, ohne ethische Leitlinien zu überschreiten? Diese und viele weitere Fragen stehen im Fokus der zweiten Folge von „No Hype KI“.
/artikel/no-hype-ki-folge-2
23.12.2024

KI in Gesundheit, Bildung und öffentlichem Dienst: „Chancen nutzen, Risiken minimieren”

Nachlese. Was kann Künstliche Intelligenz in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten? Welche Chancen und Risiken bringt Künstliche Intelligenz mit sich? Wie lässt sich ihr Potenzial verantwortungsvoll nutzen, ohne ethische Leitlinien zu überschreiten? Diese und viele weitere Fragen stehen im Fokus der zweiten Folge von „No Hype KI“.
/artikel/no-hype-ki-folge-2
Diskussionsrunde der Folge 2: Harald Herzog, Moritz Mitterer, Carina Zehetmaier, Bernd Konnerth, Markus Fallenböck (c) brutkasten

„No Hype KI” wird unterstützt von CANCOM AustriaIBMITSVMicrosoftNagarroRed Hat und Universität Graz.


Gut zwei Jahre ist es her, dass ChatGPT einen Hype rund um generative KI-Modelle auslöste. Doch es stellen sich auch viele kritische Fragen beim Einsatz von KI – besonders in sensiblen Bereichen. Klar ist: Künstliche Intelligenz bietet viele Vorteile und vereinfacht komplexe Prozesse. Gleichzeitig wirft sie jedoch auch Herausforderungen und Ängste auf, mit denen man sich kritisch auseinandersetzen muss.

Was KI in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten kann, diskutierten in der zweiten Folge „No Hype KI”:

  • Bernd Konnerth (Microsoft Österreich | Public Sector Lead)
  • Carina Zehetmaier (Women in AI Austria | Präsidentin)
  • Harald Herzog (Österreichische Gesundheitskasse | Leiter Digitalisierung und Innovation)
  • Moritz Mitterer (ITSV | Aufsichtsratsvorsitzender)
  • Markus Fallenböck (Universität Graz | Vizerektor für Personal und Digitalisierung).
Du willst bei "No Hype KI" am Laufenden bleiben?

Trag dich hier ein und du bekommst jede Folge direkt in die Inbox!

Menschenzentrierter Ansatz im Mittelpunkt

Künstliche Intelligenz ist schon längst Teil unseres Alltags – ob bewusst oder unbewusst. Und obwohl KI bereits in vielen Lebensbereichen der Österreicher:innen präsent ist, bleibt die Skepsis bei vielen groß. Laut Carina Zehetmaier ist es daher ein besonders wichtiger Faktor, dass man jeder einzelnen Person KI näher bringt, sodass mehr Vertrauen in die Technologie entsteht: „Derzeit gibt es noch viele Ängste rund um KI. Aber es gibt auch noch gewisse Schwachstellen wie zum Beispiel das Halluzinieren, oder auch Vorurteile, die in den Systemen drinnen sind und widergespiegelt werden können. Es ist relevant, dass man sich hier von Anfang an mit den kritischen Fragenstellungen auseinandersetzt“.

Hierbei müsse an vorderster Stelle die öffentliche Hand hohe Standards setzen – vor allem aus menschenrechtlicher Sicht. Zehetmaier befürwortet in diesem Zusammenhang den AI Act, der klare gesetzliche Rahmenbedingungen schafft. „Die öffentliche Hand ist der direkte Adressat der Grund- und Menschenrechte“, sagt sie.

Ein weiterer wichtiger Punkt von Zehetmaier ist die Notwendigkeit, marginalisierte Gruppen nicht zu übersehen. Man müsse sich bemühen, geschlechtsspezifische und andere Vorurteile in Datensätzen zu vermeiden. „Wir wissen auch, dass Automatisierung den Gender-Pay-Gap öffnet anstatt schließt, das heißt, da müssen wir aktiv und gezielt gegensteuern“.

Verantwortungsvolle KI bedeute, aktiv an den Daten und Algorithmen zu arbeiten. Nur so könne sichergestellt werden, dass KI-Anwendungen nicht nur technologisch effizient, sondern auch ethisch und gesellschaftlich verantwortungsvoll gestaltet werden.

Responsible AI: Inklusivität, Fairness, Datenschutz

Dass die Anwendung von generativer KI nicht bloß Kosten senken soll, sondern den Menschen Nutzen bringen muss, ist auch für Bernd Konnerth von Microsoft klar. „Wir setzen auf Responsible-AI-Standards, bei denen es um Inklusivität, Fairness, Datenschutz und all diese Themen geht. Das sind Leitplanken in unserer Produktentwicklung“, sagt der Public Sector Lead von Microsoft Österreich.

Von der Unternehmenstransformation bis hin zum öffentlichen Dienst sei ein breites Umschulungsprogramm notwendig, um Ängste abzubauen: Es sei wichtig, „Umgebungen zu schaffen, die es Mitarbeiterinnen und Mitarbeiter möglich machen, mit der Technologie zu interagieren, um den Berührungsängsten entgegen zu wirken”.

Universität Graz startete UniGPT für Mitarbeitende

Was Bildung angeht, betont Markus Fallenböck von der Universität Graz die Bedeutung einer breiten Wissensvermittlung. Es gehe nicht nur um Spezialist:innen für KI, sondern vor allem um die große Masse an Mitarbeitenden, die einen “sinnvollen Umgang mit KI erlernen” müssen: „Je mehr Wissen wir in die Bevölkerung kriegen, umso mehr können wir Chancen nutzen und Risiken minimieren“.

Die Universität Graz hat dazu eine eigene Micro-Credential-KI gestartet, um Studierenden ein Grundwissen zu KI zu vermitteln: “Das ist ein abgeschlossenes Studienpaket, das man in jedes Studium integrieren kann und das gerade in einer Pilotphase ist”, erläutert Fallenböck. Das Paket lasse sich in jedes Studium integrieren. “Da ist die Idee, dass in ein paar Jahren jeder Bachelor-Studierende, der in Graz einen Abschluss macht, ein Grundwissen hat zu KI-Bereich, Technik, Wirtschaft, Recht, Ethik”.

Für die eigenen Mitarbeiter:innen hat die Universität Graz im Mai 2024 außerdem den Chatbot UniGPT gestartet. Bereits mehrere hundert Mitarbeiter:innen wurden dafür bereits eingeschult. “Da sitzt die Universitätsprofessorin neben der Sekretariatskraft und beide interessieren sich für KI und werden es in ihrem Arbeitsalltag gut einsetzen”, schildert Fallenböck seine Eindrücke.

Über die eigenen Mitarbeitenden will die Universität Graz Wissensvermittlung aber auch in die Bevölkerung tragen. Dazu hat sie im Oktober etwa erstmals den Technology Impact Summit zum Thema KI in Graz veranstaltet. “Weil natürlich auch wichtig ist, dass wir die breite Öffentlichkeit mit dem Thema erreichen. Je mehr Wissen wir in die Bevölkerung kriegen, umso mehr, können wir auch das Chancennutzen und Risikominimieren wirklich schaffen”, erläutert Fallenböck.

ITSV: Künstliche Intelligenz im Gesundheitssystem

 Die ITSV wiederum steuert und koordiniert die IT-Aktivitäten der österreichischen Sozialversicherung – und beschäftigt sich schon länger mit dem KI-Thema. Aufsichtsratsvorsitzender Moritz Mitterer erzählt im Talk, dass das Unternehmen bereits 2018 mit der Erprobung von KI-Lösungen begonnen habe. In einem geschützten Umfeld wurden dabei erste Erfahrungen gesammelt, bevor die Systeme in den Echtbetrieb übergingen. Dieser schrittweise Ansatz habe wesentlich dazu beigetragen, das Vertrauen in KI-Modelle im Unternehmen zu stärken.

Besonders bei sensiblen Daten, wie etwa Gesundheitsdaten, ist die Gefahr von Missbrauch ein zentraler Risikofaktor. Mitterer erläutert die Bedeutung von Transparenz und Nachvollziehbarkeit: „Man muss Patientinnen und Patienten mitnehmen, indem man entsprechend strenge Regeln hat und Compliance hat. Und indem man offen damit umgeht, falls doch was sein sollte“.

KI schafft Abhilfe bei steigendem Leistungsaufkommen bei ÖGK

Die ITSV arbeitet dabei unter anderem für die Österreichische Gesundheitskasse (ÖGK). Harald Herzog von der ÖGK erläutert, dass das steigende Leistungsaufkommen – etwa wachsende Fallzahlen, steigende Lebenserwartung, mehr Konsultationen – nach neuen Wegen verlangt: „Würden wir die Prozesse so weiterspielen wie bisher, bräuchten wir mehr Personal“, so Herzog. „Unsere Aufgabe ist es effizient zu arbeiten und alle technischen Möglichkeiten der KI auszunutzen“.

KI könne hier unterstützen, etwa bei der Wahlarztkostenerstattung. Ziel sei es, einen Großteil der Fälle automatisiert abwickeln zu können. Laut Herzog geht es aber nicht darum, den persönlichen Kontakt zu ersetzen, sondern lediglich zu ergänzen.

Zusätzliches Wirtschaftswachstum von bis zu 18 Prozent durch KI-Nutzung

Auch die öffentliche Verwaltung steht vor Herausforderungen, etwa aufgrund der Pensionierungswelle oder des Fachkräftemangels. Künstliche Intelligenz könnte dabei eine Rolle spielen. Bernd Konnerth von Microsoft Österreich sagt: „Künstliche Intelligenz kann eine Antwort sein – vielleicht nicht die Einzige, aber sie hat sehr viel Potenzial durch die Automatisierung wiederkehrender Tätigkeiten, viel Nutzen zu stiften“.

Aktuell befinde sich Österreich erst am Anfang, dieses Potenzial auszuschöpfen. Konnerth verweist auf eine Studie, dass Österreich ein Wirtschaftswachstum von bis zu 18 Prozent erzielen könnte, wenn das ganze Potenzial von KI ausgeschöpft werde.

Ausblick: KI-Nutzung in fünf Jahren

Wo steht der Einsatz von Künstlicher Intelligenz in fünf Jahren? „Ich hoffe, dass wir nicht mehr über die Technologie reden müssen, so wie wir heute auch nicht mehr über Strom sprechen, sondern dass sie einfach da ist“, so Microsoft-Experte Konnerth.

Carina Zehetmaier wiederum blickt auf die EU als Werteunion. In fünf Jahren solle man sehen, dass Österreich und Europa es geschafft haben, einen wertebasierten, menschengerechten KI-Einsatz umzusetzen. Für Österreich könne sich hier eine besondere Chance bieten, so Zehetmaier. Das Land könne sich als Vorreiter für einen vertrauenswürdigen, menschenzentrierten Umgang mit KI etablieren. Es gehe darum, „den menschenzentrierten Ansatz im Einklang mit Werten und Grundrechten umzusetzen“.

KI birgt enormes Potenzial

Die Diskussionsrunde ist sich einig, dass KI in sensiblen Arbeitsfeldern längst keine ferne Zukunftsvision mehr ist, sondern bereits eine zentrale Rolle darstellt. Die Chancen sind enorm – von effizienteren Verwaltungsprozessen über eine präzisere Gesundheitsversorgung bis hin zu einer gerechteren Bildung. Doch um diese Möglichkeiten zu nutzen, braucht es breites Verständnis, klare Regeln, vertrauenswürdige Technik und einen sensiblen Umgang mit Daten.


Folge nachsehen: No Hype KI – Was kann KI in den Bereichen Gesundheit, Bildung und im öffentlichen Sektor leisten?

Hier gehts es zur Nachlese von Folge 1: „No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?”


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

Die Partner von No Hype KI
Die Partner von No Hype KI

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Dieses Startup verhindert, dass dein Saugroboter deine Daten klaut

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Dieses Startup verhindert, dass dein Saugroboter deine Daten klaut

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Dieses Startup verhindert, dass dein Saugroboter deine Daten klaut

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Dieses Startup verhindert, dass dein Saugroboter deine Daten klaut

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Dieses Startup verhindert, dass dein Saugroboter deine Daten klaut

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Dieses Startup verhindert, dass dein Saugroboter deine Daten klaut

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Dieses Startup verhindert, dass dein Saugroboter deine Daten klaut

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Dieses Startup verhindert, dass dein Saugroboter deine Daten klaut

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Dieses Startup verhindert, dass dein Saugroboter deine Daten klaut