06.07.2023

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

Bei einer Konferenz in der Schweiz sprechen führende KI-Expert:innen darüber, wie uns KI bei der Bewältigung von Krisen helfen kann. Auch der israelische Historiker Yuval Harari war dabei.
/artikel/harari-20-prozent-von-jedem-ki-investment-sollen-in-die-sicherheit-von-ki-fliessen
Bei dem Summit in Genf sind viele Roboter unterwegs. Bild: (c) Owen Beard/Unsplash
Bei dem Summit in Genf sind viele Roboter unterwegs. Bild: (c) Owen Beard/Unsplash

“Wir haben weniger als 10 Jahre Zeit, um die Ziele für nachhaltige Entwicklung (SDGs) der Vereinten Nationen zu erreichen”, so die Initiative “AI for Good”, die sich am Donnerstag zum Summit in Genf traf. Die Vertreter:innen sind überzeugt, dass in der KI viele Lösungswege für Probleme stecken. KI könne dafür riesige Datenmengen nutzen, die derzeit zu menschlichen Emotionen, unserem Verhalten, der Gesundheit, Handel, Kommunikation, Migration und in anderen Bereichen gesammelt werden.

KI soll bei Sustainable Development Goals helfen

Die Initiative “AI for Good” will KI-Anwendungen finden, welche die Sustainable Development Goals der Vereinten Nationen vorantreiben und Lösungen für Probleme wie die Klimakrise, die Verschmutzung der Meere oder den Welthunger finden. “AI for Good” ist ein gemeinsames Projekt von der Internationalen Fernmeldeunion (ITU) und 40 UN-Organisationen.

Viele Vortragende erzählen, welche Lösungen die KI für unsere Probleme anbietet. Roboter sind in Genf auch reichlich vertreten, ob auf der Bühne oder als Servicepersonal. Als Roboter “Sofia” auf der Bühne aber zum Singen aufgefordert wird, bleibt sie peinlich still.

Harari: Die gefährlichste Technologie aller Zeiten

Der amerikanische Journalist Nick Thompson (The Atlantic) und der israelische Historiker und Bestseller-Autor Yuval Noah Harari sprachen über KI und die Zukunft der Demokratie. Der Historiker warnt eindrücklich vor der aktuellen, aus seiner Sicht zu schnellen KI-Entwicklung: “Es ist das erste Tool in der menschlichen Geschichte, das selbst Entscheidungen treffen kann”, so Harari. Zudem sei es auch noch nie der Fall gewesen, dass ein Tool “selbstständig neue Ideen entwickeln kann”.

Besonders eindringlich warnt Harari daher vor der immensen Geschwindigkeit der technischen Entwicklung: “Menschen sind nicht sehr gut darin, neue Tools zu verwenden, denn wir machen Fehler. Wir brauchen Zeit”. Er zieht dabei Parallelen zu Fehlern der Vergangenheit – etwa dem Nationalsozialismus. “Wenn wir mit KI ähnliche Fehler machen, könnte es das Ende unserer Spezies sein”, so der Historiker. Die Zeit wäre so knapp wie nie zuvor. Als Negativbeispiel nennt er auch Social Media: Algorithmen hätten schnell erkannt, dass sie für Aufregung sorgen müssten, um Engagement zu erzeugen.

KI-Entwicklung einbremsen

“KI ist die gefährlichste und zu gleich beste, chancenreichste Technologie, die jemals erfunden wurde”, meinte Harari. Die KI-Geschichte von heute sei erst zehn Jahre alt. Aber: “Es schreitet mit enorm schneller Geschwindigkeit fort, niemand weiß wo wir in zehn Jahren sein werden”, warnt Harari. Er wünscht sich daher einen stärkeren Fokus auf KI-Regulierung.

“Ein neues Auto darf auch nicht ohne Sicherheitschecks auf die Straße. Für KI sollte das selbe gelten, vorher sollten wir sie viel besser verstehen”, so der Historiker. Vor allem bräuchten die Regulierungsbehörden aber mehr Budget. Harari findet, dass 20 Prozent des in KI investierten Kapitals in die Regulierung fließen sollten. “Ein fixer Prozentsatz von jedem KI-Investment soll in die Sicherheit von KI fließen”, meint er.

Demokratien am Leben lassen

“Jetzt ist es zum ersten Mal in der Geschichte möglich, falsche Menschen zu erschaffen. Es wird fast unmöglich sein, zwischen Deepfakes und realen Menschen zu unterscheiden”, warnt er. Vor allem Demokratien würden damit nicht klar kommen. Daher fordert Harari rasch Gesetze: “Wenn ich mit einem KI-Doktor oder KI-Journalisten interagiere, muss ich das wissen”, findet Harari. “Um die demokratische Gesellschaft am Leben zu halten, müssen wir verhindern, dass der Diskurs online von Bots bestimmt wird”, so der Historiker. Andernfalls würde die Demokratie nicht überleben.

Die “UN AI for Good Summit” findet vom 6. Juli bis zum 7. Juli 2023 in Genf statt.

Deine ungelesenen Artikel:
14.06.2024

Spin-off-Nation Österreich?

Österreich hat einige herausragende universitäre Spin-offs hervorgebracht. Dabei herrscht breiter Konsens, dass es noch viel Luft nach oben gibt.
/artikel/spin-off-nation-oesterreich
14.06.2024

Spin-off-Nation Österreich?

Österreich hat einige herausragende universitäre Spin-offs hervorgebracht. Dabei herrscht breiter Konsens, dass es noch viel Luft nach oben gibt.
/artikel/spin-off-nation-oesterreich
Spin-off-Nation Österreich? aws-Geschäftsführer Bernhard Sagmeister, Magdalena Hauser und Wolfgang Lechner (beide ParityQC-Co-Founder) und FFG-Geschäftsführerin Henrietta Egerth | (c) aws/Inge Prader / brutkasten / FFG/Einzenberger
vlnr.: aws-Geschäftsführer Bernhard Sagmeister, Magdalena Hauser und Wolfgang Lechner (beide ParityQC-Co-Founder) und FFG-Geschäftsführerin Henrietta Egerth | (c) aws/Inge Prader / brutkasten / FFG/Einzenberger

*Dieser Artikel erschien zuerst in der aktuellen Ausgabe unseres Printmagazins. Eine Downloadmöglichkeit findet sich am Ende des Artikels.

Einige der weltweit erfolgreichsten Unternehmen sind Uni-Spin-offs, nicht zuletzt etwa Google. Der Grund dafür scheint klar: Die universitäre Forschung bringt tatsächlich neue Erkenntnisse und Technologien, die dann am Markt eine Disruption bewirken können. Vor allem im Hightech-, aber etwa auch im Medizinbereich ist jahrelange Forschung schließlich eine unabdingbare Voraussetzung für Innovation.

Auch in Österreich gibt es einige herausragende Spin-offs. Eines davon ist das Innsbrucker Quantencomputing-Unternehmen ParityQC. Es lizenziert Baupläne für Quantentechnologie und sieht sich damit als “einziges Quantenarchitektur-Unternehmen der Welt”. Kürzlich holte ParityQC sich ein Investment zu neunstelliger Bewertung und zog damit mit mehreren börsennotierten US-Konkurrenten gleich.

“Wir sind in Österreich rund 50 Jahre hinterher”

Doch trotz dieses Erfolgs und obwohl Österreich weltweit seit Jahren zu den Spitzenreitern bei Forschungsausgaben zählt, sieht ParityQC-Co-Founder Wolfgang Lechner das Land nicht als Spin-off-Nation. “Wir sind in Österreich ca. 50 Jahre hinterher”, meint er und bringt Harvard, Cambridge und die ETH Zürich als internationale Vorbilder, die schon seit Jahrzehnten aktiv ein Spin-off-Ökosystem aufbauen.

Teil des besagten Ökosystems in Cambridge war und ist auch der Tiroler Unternehmer und Investor Hermann Hauser, der mit ARM einen der weltweit führenden Mikroprozessor-Hersteller mitgründete. Er unterstützt ParityQC nicht nur direkt als Mentor, sondern engagiert sich in den vergangenen Jahren umfassend in der Förderung der heimischen Spin-off-Landschaft. Dazu startete er gemeinsam mit dem Grazer Unternehmer und Investor Herbert Gartner die Initiative Spin-off Austria.

“Obwohl wir hierzulande auf eine lange Tradition exzellenter Forschung und Bildung zurückblicken können, bleiben im internationalen Vergleich dennoch viele unternehmerische Potenziale ungenutzt”, meinte Hauser anlässlich der letzten Spin-off Austria Conference im vergangenen Herbst. “Der Erfolg universitärer Spin-offs beruht auf einem großen Netzwerk, das Forscher:innen, Unternehmer:innen, Universitätsprofessor:innen, Investor:innen und viele weitere Akteure umfasst“, ist er überzeugt.

“Zum richtigen Zeitpunkt beide Welten zusammenbringen”

Einer dieser Akteure im Spin-off-Ökosystem ist die Austria Wirtschaftsservice (aws), die als Förderbank der Republik Österreich gemeinsam mit der Forschungsförderungsgesellschaft FFG einen entscheidenden Beitrag zur Frühfinanzierung von Spin-offs leistet. Für aws-Geschäftsführer Bernhard Sagmeister ist die Überführung von Forschungsergebnissen in Unternehmen die große Herausforderung, die es zu meistern gilt.

“Die Forschungswelt und die Unternehmenswelt sind doch zwei unterschiedliche Welten. Ich halte nicht sehr viel von dem Ansatz, aus sehr guten Forscher:innen schlechte Unternehmer:innen zu machen, sondern ich glaube, es ist wichtig, zum richtigen Zeitpunkt beide Welten zusammenzubringen. Da braucht es dann oft Mediation, weil sie nicht dieselbe Sprache sprechen“, meint Sagmeister gegenüber brutkasten.

ParityQC-Gründer Lechner erkennt in diesem Zusammenhang auch eine “Mentalitätssache in Österreich”: Man sei hierzulande entweder an der Uni oder nicht – “und das dazwischen ist etwas, das ein bisschen skeptisch betrachtet wird. Hier wollen wir auf jeden Fall eine Vorreiterrolle spielen”, meint Lechner. Die in Österreich traditionell starke Trennung von “Grundlagenforschung” und “angewandter Forschung” sieht er skeptisch. “Ich persönlich unterscheide nicht so zwischen diesen beiden Dingen”, meint er.

Und sein Feld, das Quantencomputing, sei ein Beispiel, warum man nicht so unterscheiden sollte. “Das, was wir machen, ist teilweise reine Mathematik. Das ist ja die unterste Grundlagenforschung, die man überhaupt machen kann. Es geht darum, eine neue Form von Computer zu bauen; und wir haben es irgendwie geschafft, daraus ein Geschäft zu machen”, sagt Lechner. Auch hier wolle man eine Vorreiterrolle spielen, diese Trennlinie etwas weicher zu sehen.

“Spin-off nicht killen, bevor es überhaupt einen ersten Schritt getan hat”

Wenn die Frage der Bereitschaft, zu gründen, geklärt ist, geht es freilich um die Finanzierung. Während Österreich im Förderwesen, unter anderem durch die genannten aws und FFG, im internationalen Vergleich gut aufgestellt ist, liegt das Land im Bereich Risikokapital mit 0,04 Prozent Venture-Capital-Investitionen gemessen am BIP weit zurück.

ParityQC-Co-CEO Magdalena Hauser ortet zudem ein weiteres Problem heimischer Spin-offs darin, dass Universitäten und FHs häufig hohe bürokratische Hürden für Ausgründungen haben und dann große Anteile an den Unternehmen halten. “Man sollte nicht das Spin-off killen, bevor es überhaupt einen ersten Schritt getan hat, indem man es jahrelang in Verhandlungen verstrickt, bevor man es ausgründen lässt”, meint Hauser. Auch Patente sollten aus ihrer Sicht beim Unternehmen liegen und nicht bei den Unis. “Hier braucht es klare Richtlinien”, mahnt die Gründerin ein und sieht den Staat in der Pflicht.

Doch auch finanziell sollte vom Staat noch mehr kommen, ist FFG-Geschäftsführerin Henrietta Egerth im Gespräch mit brutkasten überzeugt: “Das Wichtigste wäre, dass die Politik tatsächlich F&E, Innovation und Forschung als prioritäres Thema sieht. Es ist entscheidend, es nicht nur in Sonntagsreden zu erwähnen, sondern tatsächlich dem politischen Willen durch entsprechendes Budget Ausdruck zu verleihen.” Denn obwohl Österreich, wie oben erwähnt, zu den globalen Spitzenreitern bei Forschungsausgaben zählt, gelte es, weiter mitzuhalten – “weil jeder Euro, den wir in Forschung und Entwicklung investieren, über gesteigerte Umsätze, Lizenzerlöse und dergleichen einen Return on Investment von nachweislich acht Euro hat”, so Egerth.

Sichere dir das brutkasten-Magazin in digitaler Form!

Trag dich hier ein und du bekommst das aktuelle brutkasten-Magazin als PDF zugeschickt und kannst sofort alle Artikel lesen!

Du erhältst mit der Anmeldung künftig auch Zugang für unseren Startup-Newsletter, den wir drei Mal pro Woche verschicken. Du kannst dich jederzeit unkompliziert wieder abmelden.
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Der Artikel hebt die Bedeutung der künstlichen Intelligenz (KI) bei der Bewältigung gesellschaftlicher Herausforderungen hervor, insbesondere im Zusammenhang mit den Zielen für nachhaltige Entwicklung der Vereinten Nationen. Es wird betont, dass KI das Potenzial hat, Lösungen für Probleme wie Klimakrise, Umweltverschmutzung und Welthunger zu finden. Gleichzeitig werden jedoch auch Bedenken bezüglich der Sicherheit und Regulierung von KI ausgedrückt. Der Historiker Yuval Noah Harari warnt vor den potenziellen Gefahren von KI, insbesondere vor ihrer Fähigkeit, selbst Entscheidungen zu treffen und neue Ideen zu entwickeln. Er fordert daher eine stärkere Regulierung und Sicherheitschecks für KI-Anwendungen. Darüber hinaus warnt er vor der Manipulation von Informationen und dem Einfluss von Bots auf den demokratischen Diskurs. Insgesamt verdeutlicht der Artikel die gesellschaftspolitischen Auswirkungen von KI und betont die Notwendigkeit einer verantwortungsvollen und gezielten Nutzung dieser Technologie, um die demokratische Gesellschaft zu schützen und die Ziele für nachhaltige Entwicklung zu erreichen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Die Initiative “AI for Good” und die Befürwortung von Yuval Noah Harari für Investitionen in die Sicherheit von KI haben potenzielle wirtschaftliche Auswirkungen. Durch die Konzentration von 20 Prozent des KI-Investitionskapitals auf die Regulierung und Sicherheit von KI könnte dies zu einer erhöhten Nachfrage nach KI-Regulierungsbehörden und Sicherheitsmaßnahmen führen. Dies könnte wiederum neue Arbeitsplätze und Investitionsmöglichkeiten in diesen Bereichen schaffen. Darüber hinaus kann die Nutzung von KI zur Lösung globaler Probleme wie der Klimakrise und der Bekämpfung des Welthungers auch einen positiven Einfluss auf die Wirtschaft haben, indem neue Geschäftsmöglichkeiten und Innovationen entstehen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Als Innovationsmanager:in ist der Inhalt dieses Artikels für Sie von großer Relevanz. Die Diskussion um künstliche Intelligenz (KI) und ihre Auswirkungen auf die Gesellschaft wird immer wichtiger. Der Historiker Yuval Noah Harari warnt vor den Gefahren einer zu schnellen KI-Entwicklung und stellt die Notwendigkeit einer besseren Regulierung heraus. Dies betrifft auch Sie als Innovationsmanager:in, da Sie dafür verantwortlich sind, Innovationen voranzutreiben und gleichzeitig sicherzustellen, dass sie ethisch und sicher sind. Die Forderungen nach Investitionen in die Sicherheit von KI und nach Gesetzen zur Erkennung von Fälschungen haben direkte Auswirkungen auf Ihre Arbeit und könnten Ihre Innovationsstrategien beeinflussen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Als Investor:in ist der Inhalt dieses Artikels relevant, da er darauf hinweist, dass die Entwicklung von künstlicher Intelligenz (KI) sowohl große Chancen als auch potenzielle Gefahren mit sich bringt. Der Historiker Yuval Noah Harari rät dazu, einen stärkeren Fokus auf die Regulierung von KI zu setzen, um deren Sicherheit zu gewährleisten. Zusätzlich empfiehlt er, 20 Prozent der Investitionen in KI in die Sicherheit zu investieren. Für Investor:innen bedeutet dies, die potenziellen Risiken von KI zu berücksichtigen und sicherzustellen, dass ihre Investitionen in KI-Projekte auch die notwendigen Sicherheitsmaßnahmen berücksichtigen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Als Politiker:in ist der Inhalt dieses Artikels von großer Relevanz, da er sich mit der Bedeutung von künstlicher Intelligenz (KI) für die Nachhaltigkeitsziele der Vereinten Nationen befasst. Die Initiative “AI for Good” strebt an, mithilfe von KI-Lösungen Probleme wie die Klimakrise, die Meeresschmutzung und den Welthunger anzugehen. Der Historiker Yuval Noah Harari warnt jedoch vor den Gefahren der raschen KI-Entwicklung und fordert eine verstärkte Regulierung und Investitionen in die Sicherheit von KI. Als Politiker:in sollten Sie daher die Auswirkungen und Herausforderungen im Zusammenhang mit KI-Technologien in Betracht ziehen, um angemessene politische Maßnahmen zu entwickeln und die demokratische Gesellschaft zu schützen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Der Artikel befasst sich mit der Initiative “AI for Good”, die sich zum Ziel gesetzt hat, Künstliche Intelligenz (KI) zur Lösung globaler Herausforderungen einzusetzen und dabei die nachhaltigen Entwicklungsziele der Vereinten Nationen zu fördern. Während viele Vortragende die positiven Potenziale von KI hervorheben, warnt der Historiker Yuval Noah Harari vor den Risiken einer unregulierten und zu schnellen Entwicklung von KI. Er betont die Notwendigkeit, die Sicherheit und Regulierung von KI zu gewährleisten und hält es für entscheidend, dass ein Teil der Investitionen in KI in die Sicherheit fließt. Zudem warnt Harari vor den Konsequenzen von Deepfakes für die Demokratie und fordert die Einführung entsprechender Gesetze. Das Bigger Picture dieses Artikels liegt darin, dass die KI-Entwicklung nicht nur enorme Chancen, sondern auch erhebliche Herausforderungen mit sich bringt, die hinsichtlich der Sicherheit, Regulierung und dem Schutz demokratischer Prinzipien angegangen werden müssen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

  • “AI for Good”: Initiative
  • Nick Thompson: amerikanischer Journalist (The Atlantic)
  • Yuval Noah Harari: israelischer Historiker und Bestseller-Autor

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Die relevantesten Organisationen und Unternehmen in diesem Artikel sind:
  • Initiative “AI for Good”
  • Internationale Fernmeldeunion (ITU)
  • 40 UN-Organisationen
  • Nick Thompson (The Atlantic)
  • Yuval Noah Harari

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”