06.07.2023

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

Bei einer Konferenz in der Schweiz sprechen führende KI-Expert:innen darüber, wie uns KI bei der Bewältigung von Krisen helfen kann. Auch der israelische Historiker Yuval Harari war dabei.
/artikel/harari-20-prozent-von-jedem-ki-investment-sollen-in-die-sicherheit-von-ki-fliessen
Bei dem Summit in Genf sind viele Roboter unterwegs. Bild: (c) Owen Beard/Unsplash
Bei dem Summit in Genf sind viele Roboter unterwegs. Bild: (c) Owen Beard/Unsplash

“Wir haben weniger als 10 Jahre Zeit, um die Ziele für nachhaltige Entwicklung (SDGs) der Vereinten Nationen zu erreichen”, so die Initiative “AI for Good”, die sich am Donnerstag zum Summit in Genf traf. Die Vertreter:innen sind überzeugt, dass in der KI viele Lösungswege für Probleme stecken. KI könne dafür riesige Datenmengen nutzen, die derzeit zu menschlichen Emotionen, unserem Verhalten, der Gesundheit, Handel, Kommunikation, Migration und in anderen Bereichen gesammelt werden.

KI soll bei Sustainable Development Goals helfen

Die Initiative “AI for Good” will KI-Anwendungen finden, welche die Sustainable Development Goals der Vereinten Nationen vorantreiben und Lösungen für Probleme wie die Klimakrise, die Verschmutzung der Meere oder den Welthunger finden. “AI for Good” ist ein gemeinsames Projekt von der Internationalen Fernmeldeunion (ITU) und 40 UN-Organisationen.

Viele Vortragende erzählen, welche Lösungen die KI für unsere Probleme anbietet. Roboter sind in Genf auch reichlich vertreten, ob auf der Bühne oder als Servicepersonal. Als Roboter “Sofia” auf der Bühne aber zum Singen aufgefordert wird, bleibt sie peinlich still.

Harari: Die gefährlichste Technologie aller Zeiten

Der amerikanische Journalist Nick Thompson (The Atlantic) und der israelische Historiker und Bestseller-Autor Yuval Noah Harari sprachen über KI und die Zukunft der Demokratie. Der Historiker warnt eindrücklich vor der aktuellen, aus seiner Sicht zu schnellen KI-Entwicklung: “Es ist das erste Tool in der menschlichen Geschichte, das selbst Entscheidungen treffen kann”, so Harari. Zudem sei es auch noch nie der Fall gewesen, dass ein Tool “selbstständig neue Ideen entwickeln kann”.

Besonders eindringlich warnt Harari daher vor der immensen Geschwindigkeit der technischen Entwicklung: “Menschen sind nicht sehr gut darin, neue Tools zu verwenden, denn wir machen Fehler. Wir brauchen Zeit”. Er zieht dabei Parallelen zu Fehlern der Vergangenheit – etwa dem Nationalsozialismus. “Wenn wir mit KI ähnliche Fehler machen, könnte es das Ende unserer Spezies sein”, so der Historiker. Die Zeit wäre so knapp wie nie zuvor. Als Negativbeispiel nennt er auch Social Media: Algorithmen hätten schnell erkannt, dass sie für Aufregung sorgen müssten, um Engagement zu erzeugen.

KI-Entwicklung einbremsen

“KI ist die gefährlichste und zu gleich beste, chancenreichste Technologie, die jemals erfunden wurde”, meinte Harari. Die KI-Geschichte von heute sei erst zehn Jahre alt. Aber: “Es schreitet mit enorm schneller Geschwindigkeit fort, niemand weiß wo wir in zehn Jahren sein werden”, warnt Harari. Er wünscht sich daher einen stärkeren Fokus auf KI-Regulierung.

“Ein neues Auto darf auch nicht ohne Sicherheitschecks auf die Straße. Für KI sollte das selbe gelten, vorher sollten wir sie viel besser verstehen”, so der Historiker. Vor allem bräuchten die Regulierungsbehörden aber mehr Budget. Harari findet, dass 20 Prozent des in KI investierten Kapitals in die Regulierung fließen sollten. “Ein fixer Prozentsatz von jedem KI-Investment soll in die Sicherheit von KI fließen”, meint er.

Demokratien am Leben lassen

“Jetzt ist es zum ersten Mal in der Geschichte möglich, falsche Menschen zu erschaffen. Es wird fast unmöglich sein, zwischen Deepfakes und realen Menschen zu unterscheiden”, warnt er. Vor allem Demokratien würden damit nicht klar kommen. Daher fordert Harari rasch Gesetze: “Wenn ich mit einem KI-Doktor oder KI-Journalisten interagiere, muss ich das wissen”, findet Harari. “Um die demokratische Gesellschaft am Leben zu halten, müssen wir verhindern, dass der Diskurs online von Bots bestimmt wird”, so der Historiker. Andernfalls würde die Demokratie nicht überleben.

Die “UN AI for Good Summit” findet vom 6. Juli bis zum 7. Juli 2023 in Genf statt.

Deine ungelesenen Artikel:
14.06.2024

Anyline-Co-Founder bei Fuckup Night: “Zu 99 Sachen nein sagen, die super geil klingen”

Bei der 44. Ausgabe der Fuckup Nights Vienna erzählte Anyline-Co-Founder Jakob Hofer offen von Learnings am Weg des Scaleups.
/artikel/anyline-jakob-hofer-fuckup-night
14.06.2024

Anyline-Co-Founder bei Fuckup Night: “Zu 99 Sachen nein sagen, die super geil klingen”

Bei der 44. Ausgabe der Fuckup Nights Vienna erzählte Anyline-Co-Founder Jakob Hofer offen von Learnings am Weg des Scaleups.
/artikel/anyline-jakob-hofer-fuckup-night
Anyline-Co-Founder Jakob Hofer bei der 44. Fuckup Night | (c) Fuckup Nights Vienna und Wolf & Woodpecker
Anyline-Co-Founder Jakob Hofer bei der 44. Fuckup Night | (c) Fuckup Nights Vienna und Wolf & Woodpecker

Anyline ist eines der bekanntesten Scaleups des Landes. Schlagzeilen machte das auf KI-Bilderkennung via Smartphone spezialisierte Unternehmen in den vergangenen Jahren etwa mit mehreren achtstelligen Investments, im Jahr 2023 aber auch mit einem größeren Stellenabbau. Zuletzt verkündete das Scaleup wieder ein starkes Umsatzwachstum. Auf dem Weg dorthin lagen zahlreiche Learnings und damit verbundene Iterationen, wie Co-Founder Jakob Hofer bei der 44. Ausgabe der Fuckup Nights erzählte.

“Du musst jeden Tag Entscheidungen treffen. Ob es ein Fuckup ist oder nicht, weißt du erst im Nachhinein”

“Wir machen dauernd Fuckups. Das gehört einfach dazu. Du musst jeden Tag Entscheidungen treffen. Ob es ein Fuckup ist oder nicht, weißt du erst im Nachhinein”, sagt Hofer. Ob er eines davon im Nachhinein bereue? “Ganz ehrlich, kein einziges!”, sagt der Anyline-Gründer. “Bei jeder Entscheidung, die im Nachhinein falsch war, lernst du einfach immer etwas dazu.”

Und was waren diese Fuckups, die der Anyline-Co-Founder anspricht? Hofer startet bei seiner Speech auf der Fuckup Night mit den Anfängen des Unternehmens. “Vor zehn Jahren am Pioneers Festival sind wie das erste Mal so richtig als Anyline-Team aufgetreten. Wir hatten T-Shirts mit dem Schriftzug ‘Yes, we scan!’. Wir dachten: Wir haben eine richtig geile Technologie, die jeder versteht – wenn wir das Produkt einfach auf die Website knallen, wird es jeder herunterladen und online bezahlen und wir brauchen eigentlich kein Sales”, erzählt der Gründer.

“Vielleicht doch ein bisschen Sales machen”

Investoren habe man mit der Technologie schnell überzeugt, darunter etwa Hansi Hansmann, der bereits im Gründungsjahr 2014 einstieg. Damit habe man auch das Produkt weiterentwickeln können. Mit den Kund:innen war es dann aber doch nicht so einfach. “Wir haben gewartet, dass Bestellungen reinkommen, aber es kamen nicht wirklich viele”, erzählt Hofer. Die damalige Conclusio: Man müsse “vielleicht doch ein bisschen Sales machen”.

Weil Anyline aber keine Sales-Abteilung hatte, habe man das gesamte Team zusammengeholt, um eine Woche lang “irgendwelche Listen aus dem Internet” durchzutelefonieren. “Wir haben keinen einzigen Deal so abgeschlossen”, erzählt Hofer. Aber man habe durch die zahlreichen Gespräche viel darüber gelernt, welche Verkaufs-Strategien besser und welche schlechter funktionieren und in welchen Branchen größeres Interesse bestehe. “Mit den Learnings aus dieser total gescheiterten Kampagne haben wir angefangen, unsere Focus-Areas zu definieren”, so der Gründer.

Immer weiter fokussieren

Dieser “Fokus” sei aber immer noch sehr breit gewesen – von Augmented Reality mit Smart Glasses über das Ablesen von Stromzählern und Scannen von Pässen bis hin zu Loyalty-Kampagnen. Man habe auch damit wieder “coole Investments” geholt, etwa vom Swarowski-Family-Office mit Markus Langes-Swarovski oder von Hermann Hauser. “Umsatz ist aber halt noch nicht wirklich viel dahergekommen”, erinnert sich der Anyline-Gründer. Man habe also beschlossen, sich noch weiter zu fokussieren. “Die drei Industries, die wir gewählt haben, waren Government, Utility und Other”, erzählt Hofer zum Amüsement des Fuckup Nights-Publikums.

Tatsächlich habe sich der Bereich “Government” schnell als strak erwiesen – konkret die Zusammenarbeit mit Polizeien mehrerer Länder beim Scannen von Ausweisen und Fahrzeugen. Bald habe man 100.000 Polizist:innen als Nutzer:innen gehabt. Doch während der Corona-Zeit habe man gemerkt: “Wir kommen irgendwie nicht ganz vom Fleck mit dem, was wir machen.” Man habe zwar im Government-Bereich eine solide Kundenbasis gehabt, aber sei bei der Skalierung an eine Grenze gestoßen. “In der Politik bewegt sich nicht wahnsinnig viel. Viele Leute haben sehr, sehr viel Angst vorm Scheitern. Sie bewegen sich nur, wenn es unbedingt notwendig ist und diese Angst, etwas zu verpassen, gibt es dort gar nicht”, so Hofer.

“Ob ich nächstes Jahr eine ganz andere Story erzähle, weiß ich nicht”

Auch im Utility-Bereich habe man große Kunden gehabt, aber “den VC-Case, der wir sein wollten, nicht wirklich abbilden können”. Abermals habe man also beschlossen, noch enger zu fokussieren. “Da heißt Fokus dann nicht mehr, ja zu sagen zu drei, vier, fünf, sieben coolen Sachen, die wahnsinnig spannend klingen, sondern eigentlich zu 99 Sachen nein zu sagen, die super geil klingen, und nur zu der einen Sache ja zu sagen, die dann wirklich unser volles Commitment bekommt”, erläutert der Anyline-Gründer. So sei man auf den Bereich Automotive gekommen.

“Mit Automotive haben wir einfach eine Branche gefunden, die digitalisieren muss, wo wahnsinnig viel passiert”, so Hofer. Und die Technologie für die Usecases habe man großteils bereits gehabt und in anderen Bereichen erprobt. “Wir sehen dort nach wie vor super Erfolge und alles, was wir vorher vielleicht falsch gemacht haben, weil wir da nicht die Erfolge gefeiert haben, die wir uns eigentlich erwünscht hatten, hilft uns trotzdem, hier weiter erfolgreich zu sein”, resümiert der Anyline-Co-Founder. Doch er räumt ein: “Ob das jetzt wirklich das Coolste ist, oder das nächste Fuckup kommt und ich nächstes Jahr eine ganz andere Story erzähle, weiß ich nicht.”

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Der Artikel hebt die Bedeutung der künstlichen Intelligenz (KI) bei der Bewältigung gesellschaftlicher Herausforderungen hervor, insbesondere im Zusammenhang mit den Zielen für nachhaltige Entwicklung der Vereinten Nationen. Es wird betont, dass KI das Potenzial hat, Lösungen für Probleme wie Klimakrise, Umweltverschmutzung und Welthunger zu finden. Gleichzeitig werden jedoch auch Bedenken bezüglich der Sicherheit und Regulierung von KI ausgedrückt. Der Historiker Yuval Noah Harari warnt vor den potenziellen Gefahren von KI, insbesondere vor ihrer Fähigkeit, selbst Entscheidungen zu treffen und neue Ideen zu entwickeln. Er fordert daher eine stärkere Regulierung und Sicherheitschecks für KI-Anwendungen. Darüber hinaus warnt er vor der Manipulation von Informationen und dem Einfluss von Bots auf den demokratischen Diskurs. Insgesamt verdeutlicht der Artikel die gesellschaftspolitischen Auswirkungen von KI und betont die Notwendigkeit einer verantwortungsvollen und gezielten Nutzung dieser Technologie, um die demokratische Gesellschaft zu schützen und die Ziele für nachhaltige Entwicklung zu erreichen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Die Initiative “AI for Good” und die Befürwortung von Yuval Noah Harari für Investitionen in die Sicherheit von KI haben potenzielle wirtschaftliche Auswirkungen. Durch die Konzentration von 20 Prozent des KI-Investitionskapitals auf die Regulierung und Sicherheit von KI könnte dies zu einer erhöhten Nachfrage nach KI-Regulierungsbehörden und Sicherheitsmaßnahmen führen. Dies könnte wiederum neue Arbeitsplätze und Investitionsmöglichkeiten in diesen Bereichen schaffen. Darüber hinaus kann die Nutzung von KI zur Lösung globaler Probleme wie der Klimakrise und der Bekämpfung des Welthungers auch einen positiven Einfluss auf die Wirtschaft haben, indem neue Geschäftsmöglichkeiten und Innovationen entstehen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Als Innovationsmanager:in ist der Inhalt dieses Artikels für Sie von großer Relevanz. Die Diskussion um künstliche Intelligenz (KI) und ihre Auswirkungen auf die Gesellschaft wird immer wichtiger. Der Historiker Yuval Noah Harari warnt vor den Gefahren einer zu schnellen KI-Entwicklung und stellt die Notwendigkeit einer besseren Regulierung heraus. Dies betrifft auch Sie als Innovationsmanager:in, da Sie dafür verantwortlich sind, Innovationen voranzutreiben und gleichzeitig sicherzustellen, dass sie ethisch und sicher sind. Die Forderungen nach Investitionen in die Sicherheit von KI und nach Gesetzen zur Erkennung von Fälschungen haben direkte Auswirkungen auf Ihre Arbeit und könnten Ihre Innovationsstrategien beeinflussen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Als Investor:in ist der Inhalt dieses Artikels relevant, da er darauf hinweist, dass die Entwicklung von künstlicher Intelligenz (KI) sowohl große Chancen als auch potenzielle Gefahren mit sich bringt. Der Historiker Yuval Noah Harari rät dazu, einen stärkeren Fokus auf die Regulierung von KI zu setzen, um deren Sicherheit zu gewährleisten. Zusätzlich empfiehlt er, 20 Prozent der Investitionen in KI in die Sicherheit zu investieren. Für Investor:innen bedeutet dies, die potenziellen Risiken von KI zu berücksichtigen und sicherzustellen, dass ihre Investitionen in KI-Projekte auch die notwendigen Sicherheitsmaßnahmen berücksichtigen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Als Politiker:in ist der Inhalt dieses Artikels von großer Relevanz, da er sich mit der Bedeutung von künstlicher Intelligenz (KI) für die Nachhaltigkeitsziele der Vereinten Nationen befasst. Die Initiative “AI for Good” strebt an, mithilfe von KI-Lösungen Probleme wie die Klimakrise, die Meeresschmutzung und den Welthunger anzugehen. Der Historiker Yuval Noah Harari warnt jedoch vor den Gefahren der raschen KI-Entwicklung und fordert eine verstärkte Regulierung und Investitionen in die Sicherheit von KI. Als Politiker:in sollten Sie daher die Auswirkungen und Herausforderungen im Zusammenhang mit KI-Technologien in Betracht ziehen, um angemessene politische Maßnahmen zu entwickeln und die demokratische Gesellschaft zu schützen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Der Artikel befasst sich mit der Initiative “AI for Good”, die sich zum Ziel gesetzt hat, Künstliche Intelligenz (KI) zur Lösung globaler Herausforderungen einzusetzen und dabei die nachhaltigen Entwicklungsziele der Vereinten Nationen zu fördern. Während viele Vortragende die positiven Potenziale von KI hervorheben, warnt der Historiker Yuval Noah Harari vor den Risiken einer unregulierten und zu schnellen Entwicklung von KI. Er betont die Notwendigkeit, die Sicherheit und Regulierung von KI zu gewährleisten und hält es für entscheidend, dass ein Teil der Investitionen in KI in die Sicherheit fließt. Zudem warnt Harari vor den Konsequenzen von Deepfakes für die Demokratie und fordert die Einführung entsprechender Gesetze. Das Bigger Picture dieses Artikels liegt darin, dass die KI-Entwicklung nicht nur enorme Chancen, sondern auch erhebliche Herausforderungen mit sich bringt, die hinsichtlich der Sicherheit, Regulierung und dem Schutz demokratischer Prinzipien angegangen werden müssen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

  • “AI for Good”: Initiative
  • Nick Thompson: amerikanischer Journalist (The Atlantic)
  • Yuval Noah Harari: israelischer Historiker und Bestseller-Autor

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Die relevantesten Organisationen und Unternehmen in diesem Artikel sind:
  • Initiative “AI for Good”
  • Internationale Fernmeldeunion (ITU)
  • 40 UN-Organisationen
  • Nick Thompson (The Atlantic)
  • Yuval Noah Harari

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”