06.07.2023

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

Bei einer Konferenz in der Schweiz sprechen führende KI-Expert:innen darüber, wie uns KI bei der Bewältigung von Krisen helfen kann. Auch der israelische Historiker Yuval Harari war dabei.
/artikel/harari-20-prozent-von-jedem-ki-investment-sollen-in-die-sicherheit-von-ki-fliessen
Bei dem Summit in Genf sind viele Roboter unterwegs. Bild: (c) Owen Beard/Unsplash
Bei dem Summit in Genf sind viele Roboter unterwegs. Bild: (c) Owen Beard/Unsplash

“Wir haben weniger als 10 Jahre Zeit, um die Ziele für nachhaltige Entwicklung (SDGs) der Vereinten Nationen zu erreichen”, so die Initiative “AI for Good”, die sich am Donnerstag zum Summit in Genf traf. Die Vertreter:innen sind überzeugt, dass in der KI viele Lösungswege für Probleme stecken. KI könne dafür riesige Datenmengen nutzen, die derzeit zu menschlichen Emotionen, unserem Verhalten, der Gesundheit, Handel, Kommunikation, Migration und in anderen Bereichen gesammelt werden.

KI soll bei Sustainable Development Goals helfen

Die Initiative “AI for Good” will KI-Anwendungen finden, welche die Sustainable Development Goals der Vereinten Nationen vorantreiben und Lösungen für Probleme wie die Klimakrise, die Verschmutzung der Meere oder den Welthunger finden. “AI for Good” ist ein gemeinsames Projekt von der Internationalen Fernmeldeunion (ITU) und 40 UN-Organisationen.

Viele Vortragende erzählen, welche Lösungen die KI für unsere Probleme anbietet. Roboter sind in Genf auch reichlich vertreten, ob auf der Bühne oder als Servicepersonal. Als Roboter “Sofia” auf der Bühne aber zum Singen aufgefordert wird, bleibt sie peinlich still.

Harari: Die gefährlichste Technologie aller Zeiten

Der amerikanische Journalist Nick Thompson (The Atlantic) und der israelische Historiker und Bestseller-Autor Yuval Noah Harari sprachen über KI und die Zukunft der Demokratie. Der Historiker warnt eindrücklich vor der aktuellen, aus seiner Sicht zu schnellen KI-Entwicklung: “Es ist das erste Tool in der menschlichen Geschichte, das selbst Entscheidungen treffen kann”, so Harari. Zudem sei es auch noch nie der Fall gewesen, dass ein Tool “selbstständig neue Ideen entwickeln kann”.

Besonders eindringlich warnt Harari daher vor der immensen Geschwindigkeit der technischen Entwicklung: “Menschen sind nicht sehr gut darin, neue Tools zu verwenden, denn wir machen Fehler. Wir brauchen Zeit”. Er zieht dabei Parallelen zu Fehlern der Vergangenheit – etwa dem Nationalsozialismus. “Wenn wir mit KI ähnliche Fehler machen, könnte es das Ende unserer Spezies sein”, so der Historiker. Die Zeit wäre so knapp wie nie zuvor. Als Negativbeispiel nennt er auch Social Media: Algorithmen hätten schnell erkannt, dass sie für Aufregung sorgen müssten, um Engagement zu erzeugen.

KI-Entwicklung einbremsen

“KI ist die gefährlichste und zu gleich beste, chancenreichste Technologie, die jemals erfunden wurde”, meinte Harari. Die KI-Geschichte von heute sei erst zehn Jahre alt. Aber: “Es schreitet mit enorm schneller Geschwindigkeit fort, niemand weiß wo wir in zehn Jahren sein werden”, warnt Harari. Er wünscht sich daher einen stärkeren Fokus auf KI-Regulierung.

“Ein neues Auto darf auch nicht ohne Sicherheitschecks auf die Straße. Für KI sollte das selbe gelten, vorher sollten wir sie viel besser verstehen”, so der Historiker. Vor allem bräuchten die Regulierungsbehörden aber mehr Budget. Harari findet, dass 20 Prozent des in KI investierten Kapitals in die Regulierung fließen sollten. “Ein fixer Prozentsatz von jedem KI-Investment soll in die Sicherheit von KI fließen”, meint er.

Demokratien am Leben lassen

“Jetzt ist es zum ersten Mal in der Geschichte möglich, falsche Menschen zu erschaffen. Es wird fast unmöglich sein, zwischen Deepfakes und realen Menschen zu unterscheiden”, warnt er. Vor allem Demokratien würden damit nicht klar kommen. Daher fordert Harari rasch Gesetze: “Wenn ich mit einem KI-Doktor oder KI-Journalisten interagiere, muss ich das wissen”, findet Harari. “Um die demokratische Gesellschaft am Leben zu halten, müssen wir verhindern, dass der Diskurs online von Bots bestimmt wird”, so der Historiker. Andernfalls würde die Demokratie nicht überleben.

Die “UN AI for Good Summit” findet vom 6. Juli bis zum 7. Juli 2023 in Genf statt.

Deine ungelesenen Artikel:
17.12.2024

AnyConcept: Wie ein Grazer Software-Testing-Startup Google verblüffte

AnyConcept aus Graz hat eine Software Testautomatisierungs-Lösung entwickelt und dabei beim Trainieren seiner KI Google auf sich aufmerksam gemacht. Wie genau das Modell funktioniert und was der US-Gigant wollte, erklären die Gründer Leander Zaiser, Manuel Weichselbaum und Markus Hauser.
/artikel/anyconcept-wie-ein-grazer-software-testing-startup-google-verblueffte
17.12.2024

AnyConcept: Wie ein Grazer Software-Testing-Startup Google verblüffte

AnyConcept aus Graz hat eine Software Testautomatisierungs-Lösung entwickelt und dabei beim Trainieren seiner KI Google auf sich aufmerksam gemacht. Wie genau das Modell funktioniert und was der US-Gigant wollte, erklären die Gründer Leander Zaiser, Manuel Weichselbaum und Markus Hauser.
/artikel/anyconcept-wie-ein-grazer-software-testing-startup-google-verblueffte
Anyconcept, AnyConcept, Automatiserung, Software testen,
(c) AnyConcept - Das AnyConcept-Team.

Rund 80 Prozent aller Unternehmen testen ihre Anwendungen und Software händisch. Entweder klicken sie sich mühsam durch ihre Software oder ihren Webshop, um zu sehen, was funktioniert und was nicht, oder sie coden sich ihre Tests. Beides langwierige, kostenintensive und mühsame Aufgaben. Das wissen Leander Zaiser, CEO, Manuel Weichselbaum, CTO, und Markus Hauser, die gemeinsam mit Kevin Intering und Pascal Goldschmied das KI-Startup AnyConcept gegründet haben.

AnyConcept und das Problem der No-code-Software

Die Founder haben sich deswegen dazu entschlossen eine Testautomatisierungs-Software zu entwickeln, um den Prozess für Unternehmen zu vereinfachen und günstiger zu gestalten.

Zaiser war sechs Jahre lang RPA-Experte (Robotics Process Automation) bei Raiffeisen und hat dort Automatisierungssoftware automatisiert. Der CEO musste dabei feststellen, dass vermeintliche No-code-Software ohne Entwicklungskompetenzen sich nicht erfolgreich einsetzen ließ. Für gelernte Softwareentwickler wiederum war das Arbeiten mit solch einer Anwendung keine attraktive Tätigkeit.

Weichselbaum indes forscht seitdem er 17 ist an Künstlicher Intelligenz. Und widmet sich dabei vor allem immer den aktuellen Herausforderungen der internationalen Forschung. Das passte hervorragend zu Zaisers erkanntem Problem: aktuelle Automatisierungssoftware ist zu komplex für Non-Coder und nicht attraktiv genug für Coder. Also fragten sich die Founder: Was, wenn man Automatisierung mit einem No-Code-Ansatz macht, mithilfe einer KI, die genau das tut, was man ihr auf dem Bildschirm zeigt? So war AnyConcept geboren.

Das Black Friday-Problem

“Jede Software, jeder Webshop, jede Applikation muss immer wieder getestet werden, ob sie richtig funktioniert. Und da sie auch ständig durch neue Updates von Entwicklern oder bei einem Webshop mit neuen Produkten gefüttert wird, verändern sich Applikationen dauerhaft. Das kann wieder zum Brechen der bisherigen Funktionen führen”, erklärt Hauser, ein per Eigendefinition fleischgewordenes Startup-Kind, das zuletzt Johannes Braith (Storebox) als rechte Hand begleiten und somit Entrepreneurship aus nächster Nähe beobachten und Mitwirken durfte.

Der Gründer präzisiert sein Argument mit einem Beispiel passend zum Black Friday. Jedes Jahr würden Unternehmen Milliarden US-Dollar verlieren, weil sie ihre Preise falsch definieren oder Prozente und Dollar verwechseln, ohne dass es wem auffällt. Außerdem könnten “Trilliarden US-Dollar” an Schäden durch fehlerhafter Software, die nicht richtig getestet wurde, vermieden und “50 Prozent der IT-Projektkosten” gesenkt werden, wenn Testen automatisiert mit No-Code abläuft, so seine Überzeugung.

“Durch unser KI-Modell, das ein User-Interface rein durch Pixeldaten, Mausklicks und Tastatureingaben erkennen und manövrieren kann, schaffen wir es Automatisierung No-Code zu gestalten”, sagt Hauser. “Das Ziel ist es unsere KI-Agenten zukünftig zum Beispiel einen Prozess wie UI-Software-Testing rein durch eine Demonstration, das bedeutet das Vorzeigen des Testfalles, automatisiert durchführen zu lassen. Sie werden sich dabei exakt so verhalten wie es ein Benutzer tun würde, orientieren sich nur an den Elementen des User-Interface und konzentrieren sich nicht auf den dahinterliegenden Code. Das ist unser USP.”

FUSE for Machine Learning

Dieses Alleinstellungsmerkmal fiel auch Google auf. Konkreter Google Cloud Storage FUSE for Machine Learning. Anfänglich noch ein Open Source-Produkt als “Linux Filesystem in Userspace” oder eben als “FUSE” tituliert, wurde die Software von Google in die Cloud integriert und hilft beim Verwalten von Unmengen von Trainingsdaten, Modellen und Kontrollpunkten, die man zum Trainieren und Bereitstellen von KI-Workloads benötigt.

Anwendungen können hierbei direkt auf die Cloud zugreifen (Anm.: anstatt sie lokal herunterzuladen); als wären sie lokal gespeichert. Es müssten zudem keine benutzerdefinierte Logik implementiert werden und es gebe weniger Leerlaufzeit für wertvolle Ressourcen wie TPUs und GPUs, während die Daten übertragen werden.

FUSE sei einfach ein Produkt für Unternehmen, so Weichselbaum weiter, um große Datenmengen bequem zu verwalten und sie verfügbar zu machen: “Wir verwenden es, um viele Terrabytes von Daten auf der Cloud zu lagern, was am Computer nicht möglich ist”, sagt er.

Google sagt Hallo

Weil AnyConcept das Service von FUSE sehr intensiv nutzte, wurde Google auf die Grazer aufmerksam. Und hat konkret nachgefragt, was sie für einen Use-Case mit ihrem Angebot entwickelt haben. “Wir waren einer der ersten, die das genutzt haben, um effizient unsere KI-Agents zu trainieren“, sagt Weichselbaum. “Das Produkt von Google ist ein Teil unserer Datenverarbeitung und des Trainings unserer ganz spezifischen KI und Google wollte wissen, warum und wie wir das so intensiv verwenden. Das hat dazu geführt, dass wir unsere Ideen für Produktverbesserungen und Skripts mit ihnen teilen durften.“

AnyConcept und seine Konzepte

Das Ziel von AnyConcept ist es, ein Foundation-Modell nicht für Texte oder Bilder, sondern für Interaktionen mit dem User-Interface zu entwickeln.

Im Detail reicht hierbei eine Demonstration von einem solchen Interface und AnyConcept analysiert es mit neuronalen Netzwerken. Es erkennt Strukturen, die das Startup seinem Namen getreu “Konzepte” nennt und die auf breites Wissen aufbauen, wie man mit einem Computer interagiert.

“So ein Konzept wäre etwa ein ‘Button’ auf einer Website”, erklärt es Zaiser in anderen Worten. “Die KI versteht dann, dass man ihn anklicken kann und was danach passiert. Oder wie lange eine Website braucht, sich zu öffnen und wie sie aussieht.”

Aktuell forscht AnyConcept an der Generalisierungsfähigkeit ihres Netzwerkes. Zaiser dazu: “Wir testen unsere KI bereits mit Pilotkunden bei der Anwendung von Software-Testautomatisierung und bekommen großartiges Feedback.”

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Der Artikel hebt die Bedeutung der künstlichen Intelligenz (KI) bei der Bewältigung gesellschaftlicher Herausforderungen hervor, insbesondere im Zusammenhang mit den Zielen für nachhaltige Entwicklung der Vereinten Nationen. Es wird betont, dass KI das Potenzial hat, Lösungen für Probleme wie Klimakrise, Umweltverschmutzung und Welthunger zu finden. Gleichzeitig werden jedoch auch Bedenken bezüglich der Sicherheit und Regulierung von KI ausgedrückt. Der Historiker Yuval Noah Harari warnt vor den potenziellen Gefahren von KI, insbesondere vor ihrer Fähigkeit, selbst Entscheidungen zu treffen und neue Ideen zu entwickeln. Er fordert daher eine stärkere Regulierung und Sicherheitschecks für KI-Anwendungen. Darüber hinaus warnt er vor der Manipulation von Informationen und dem Einfluss von Bots auf den demokratischen Diskurs. Insgesamt verdeutlicht der Artikel die gesellschaftspolitischen Auswirkungen von KI und betont die Notwendigkeit einer verantwortungsvollen und gezielten Nutzung dieser Technologie, um die demokratische Gesellschaft zu schützen und die Ziele für nachhaltige Entwicklung zu erreichen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Die Initiative “AI for Good” und die Befürwortung von Yuval Noah Harari für Investitionen in die Sicherheit von KI haben potenzielle wirtschaftliche Auswirkungen. Durch die Konzentration von 20 Prozent des KI-Investitionskapitals auf die Regulierung und Sicherheit von KI könnte dies zu einer erhöhten Nachfrage nach KI-Regulierungsbehörden und Sicherheitsmaßnahmen führen. Dies könnte wiederum neue Arbeitsplätze und Investitionsmöglichkeiten in diesen Bereichen schaffen. Darüber hinaus kann die Nutzung von KI zur Lösung globaler Probleme wie der Klimakrise und der Bekämpfung des Welthungers auch einen positiven Einfluss auf die Wirtschaft haben, indem neue Geschäftsmöglichkeiten und Innovationen entstehen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Als Innovationsmanager:in ist der Inhalt dieses Artikels für Sie von großer Relevanz. Die Diskussion um künstliche Intelligenz (KI) und ihre Auswirkungen auf die Gesellschaft wird immer wichtiger. Der Historiker Yuval Noah Harari warnt vor den Gefahren einer zu schnellen KI-Entwicklung und stellt die Notwendigkeit einer besseren Regulierung heraus. Dies betrifft auch Sie als Innovationsmanager:in, da Sie dafür verantwortlich sind, Innovationen voranzutreiben und gleichzeitig sicherzustellen, dass sie ethisch und sicher sind. Die Forderungen nach Investitionen in die Sicherheit von KI und nach Gesetzen zur Erkennung von Fälschungen haben direkte Auswirkungen auf Ihre Arbeit und könnten Ihre Innovationsstrategien beeinflussen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Als Investor:in ist der Inhalt dieses Artikels relevant, da er darauf hinweist, dass die Entwicklung von künstlicher Intelligenz (KI) sowohl große Chancen als auch potenzielle Gefahren mit sich bringt. Der Historiker Yuval Noah Harari rät dazu, einen stärkeren Fokus auf die Regulierung von KI zu setzen, um deren Sicherheit zu gewährleisten. Zusätzlich empfiehlt er, 20 Prozent der Investitionen in KI in die Sicherheit zu investieren. Für Investor:innen bedeutet dies, die potenziellen Risiken von KI zu berücksichtigen und sicherzustellen, dass ihre Investitionen in KI-Projekte auch die notwendigen Sicherheitsmaßnahmen berücksichtigen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Als Politiker:in ist der Inhalt dieses Artikels von großer Relevanz, da er sich mit der Bedeutung von künstlicher Intelligenz (KI) für die Nachhaltigkeitsziele der Vereinten Nationen befasst. Die Initiative “AI for Good” strebt an, mithilfe von KI-Lösungen Probleme wie die Klimakrise, die Meeresschmutzung und den Welthunger anzugehen. Der Historiker Yuval Noah Harari warnt jedoch vor den Gefahren der raschen KI-Entwicklung und fordert eine verstärkte Regulierung und Investitionen in die Sicherheit von KI. Als Politiker:in sollten Sie daher die Auswirkungen und Herausforderungen im Zusammenhang mit KI-Technologien in Betracht ziehen, um angemessene politische Maßnahmen zu entwickeln und die demokratische Gesellschaft zu schützen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Der Artikel befasst sich mit der Initiative “AI for Good”, die sich zum Ziel gesetzt hat, Künstliche Intelligenz (KI) zur Lösung globaler Herausforderungen einzusetzen und dabei die nachhaltigen Entwicklungsziele der Vereinten Nationen zu fördern. Während viele Vortragende die positiven Potenziale von KI hervorheben, warnt der Historiker Yuval Noah Harari vor den Risiken einer unregulierten und zu schnellen Entwicklung von KI. Er betont die Notwendigkeit, die Sicherheit und Regulierung von KI zu gewährleisten und hält es für entscheidend, dass ein Teil der Investitionen in KI in die Sicherheit fließt. Zudem warnt Harari vor den Konsequenzen von Deepfakes für die Demokratie und fordert die Einführung entsprechender Gesetze. Das Bigger Picture dieses Artikels liegt darin, dass die KI-Entwicklung nicht nur enorme Chancen, sondern auch erhebliche Herausforderungen mit sich bringt, die hinsichtlich der Sicherheit, Regulierung und dem Schutz demokratischer Prinzipien angegangen werden müssen.

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

  • “AI for Good”: Initiative
  • Nick Thompson: amerikanischer Journalist (The Atlantic)
  • Yuval Noah Harari: israelischer Historiker und Bestseller-Autor

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Die relevantesten Organisationen und Unternehmen in diesem Artikel sind:
  • Initiative “AI for Good”
  • Internationale Fernmeldeunion (ITU)
  • 40 UN-Organisationen
  • Nick Thompson (The Atlantic)
  • Yuval Noah Harari

Harari: “20 Prozent von jedem KI-Investment sollten in die Sicherheit von KI fließen”