13.06.2019

BCG-Studie: Startups ziehen in der Arbeit mit Corporates den Kürzeren

Eine umfassende Studie der Boston Consulting Group (BCG) zu Corporate-Startup-Collaboration im DACH-Raum zeigt: Für Startups ist das Ergebnis einer Kooperation seltener befriedigend, als für Großunternehmen. Und österreichische Corporates hinken im DACH-Vergleich hinterher.
/artikel/bcg-studie-startups-corporates
BCG-Studie: Corporate-Startup-Collaboration
(c) fotolia.com - gearstd

Für die Studie “After the Honeymoon Ends: Making Corporate-Startup Relationships Work” befragte die Boston Consulting Group (BCG) insgesamt 190 große Unternehmen und 90 Startups im gesamten DACH-Raum. Insgesamt 570 Unternehmen wurden zudem auf den Einsatz von Corporate-Startup-Collaboration-Vehikeln gescreent. Das wohl herausstechendste Ergebnis der Befragung für den Gesamtraum: Weniger als die Hälfte der befragten Startups (45 Prozent) ist mit den durchgeführten Projekten zufrieden. Bei den befragten Corporates sind es immerhin 55 Prozent.

+++ Fokus: Corporate Innovation +++

Zu lange Entscheidungsprozesse als größter Painpoint für Startups

BCG fragte auch nach den Gründen für das Scheitern von Collaboration-Projekten (siehe Grafik). Auf Startup-Seite nehmen zu lange Entscheidungsprozesse (wenig überraschend) den Negativ-Spitzenplatz ein. Sie wurden von 25 Prozent der Befragten genannt (im Gegensatz zu 20 Prozent bei den befragten Corporate-Vertretern). Auf Seiten der Großunternehmen wiederum wird das Fehlen gegenseitiger Anerkennung bzw. das “nicht auf Augenhöhe” Zusammenarbeiten mit 25 Prozent Zustimmung als größter Painpoint identifiziert – das sehen hingegen nur 11 Prozent der befragten Startup-Gründer als eines der größten Probleme.

Gaps in der Problem-Wahrnehmung

Noch größere Gaps in der Problem-Wahrnehmung gibt es beim Punkt “keine klare Steuerung und Governance”, der von 22 Prozent der Corporates, aber nur von 3 Prozent der Startups als Grund fürs Scheitern gesehen wird, und umgekehrt bei “mangelnde Fähigkeit, mit unterschiedlichen Mindsets umzugehen”, die 11 Prozent der Startups, aber nur 2 Prozent der Großunternehmen als massives Problem sehen. Relativ einig sind sich Corporates und Jungunternehmen bei der Problemquelle “unangemessene oder intransparente Erwartungen” (Corporates: 21 Prozent; Startups: 19 Prozent).

BCG: Die größten Painpoints in der Kooperation
(c) BCG: Die größten Painpoints in der Kooperation

Corporates: Große Erwartungen in Pilotierung und neue Umsatzquellen

Nach eben diesen Erwartungen und deren Erfüllung fragte BCG in einem weiteren Fragenblock. Demnach wünschen sich Großunternehmen in der Corporate-Startup-Collaboration vor allem Pilotprojekte (von 43 Prozent der Befragten genannt) und neue Umsatzquellen (39 Prozent). Auch eine Änderung der Unternehmenskultur (28 Prozent) und der Zugang zu Talenten (27 Prozent) stehen hoch im Kurs. Diesen letzten Punkt sehen aber nur 35 Prozent der befragten Corporates erfüllt. Besonders zufrieden (58 Prozent) sind sie dagegen mit der Erfüllung der Erwartung, neue Technologien und Märkte zu scouten. Generell bewegen sich die Quoten bei der Erfüllung von Erwartungen um die 50 Prozent (siehe Grafik).

BCG: Erwartungen und deren Erfüllung bei Corporates
(c) BCG: Erwartungen und deren Erfüllung bei Corporates

Startups: Viele Erwartungen kaum erfüllt

Anders sieht es bei den befragten Startups aus. Zwar sind die drei wichtigsten Erwartungen, Umsatzsteigerung durch neue Absatzmöglichkeiten (von 73 Prozent der Befragten genannt), Umsatzsteigerung durch Marktzugang (60 Prozent) und neue Referenzen und gesteigerte Reputation (50 Prozent) recht gut erfüllt (siehe Grafik). Andere Punkte sehen die befragten Startups dagegen kaum umgesetzt, etwa den Erwerb technischen Know-hows (13 Prozent), den Zugang zu IP und Daten (16 Prozent) oder den Zugang zu Kapital (17 Prozent).

BCG: Erwartungen und deren Erfüllung bei Startups
(c) BCG: Erwartungen und deren Erfüllung bei Startups

ATX-Konzerne hinken bei Corporate-Startup-Collaboration hinterher

Im Rahmen der BCG-Studie wurden auch die Startup-Aktivitäten der Großunternehmen in Deutschland, der Schweiz und Österreich verglichen. Fünf Kategorien wurden dafür definiert: Digital- bzw. Innovationslabs, Corporate Venture Capital, Inkubatoren, Accelerators und Kooperations-Units. Dabei zeigt sich, dass österreichische börsennotierte Unternehmen im Vergleich deutlich hinterherhinken. Gerade neun von 20 ATX-Unternehmen nutzen überhaupt eine der genannten Kooperationsformen. Bei den DAX-Konzernen sind es dagegen 29 von 30, im Schweizer Leitindex SMI 18 von 20.

Heimische Familienunternehmen im Vergleich offener

Auch wenn es um die Anwendung mehrerer der genannten Vehikel geht, zeigt sich ein massiver Unterschied zwischen ATX- und DAX- bzw. SMI-Unternehmen. Während sechs DAX-Konzerne und immerhin ein SMI-Konzern alle fünf Kooperationsformen nutzt, kommt der in diesem Bereich stärkste ATX-Konzern, UNIQA, auf vier Vehikel-Arten (siehe Grafik). Im Vergleich zum DACH-Durchschnitt offener für Startup-Kooperationen zeigen sich dafür allerdings heimische Familienunternehmen. Immerhin 60 Prozent nutzen hierzulande zumindest eine der Kooperationsformen.

BCG: DACH-Unternehmen im Vergleich
(c) BCG: DACH-Unternehmen im Vergleich

⇒ Zur kompletten Studie

Redaktionstipps
Deine ungelesenen Artikel:
vor 16 Minuten

Lösung gegen KI-Halluzinationen? So funktioniert Sepp Hochreiters SDLG-Methode

Halluzinationen sind ein großes Problem der KI-Szene. Und das weltweit. Während Google und Microsoft sich bei einer Lösung schwertun, kommt aus Österreich ein Modell, dass solche "KI-Unsicherheiten" besser erkennen soll. Es heißt: SDLG. Wie genau, erklärt KI-Experte Sepp Hochreiter in einem Gespräch mit uns.
/artikel/loesung-gegen-ki-halluzinationen-so-funktioniert-sepp-hochreiters-sdlg-methode
vor 16 Minuten

Lösung gegen KI-Halluzinationen? So funktioniert Sepp Hochreiters SDLG-Methode

Halluzinationen sind ein großes Problem der KI-Szene. Und das weltweit. Während Google und Microsoft sich bei einer Lösung schwertun, kommt aus Österreich ein Modell, dass solche "KI-Unsicherheiten" besser erkennen soll. Es heißt: SDLG. Wie genau, erklärt KI-Experte Sepp Hochreiter in einem Gespräch mit uns.
/artikel/loesung-gegen-ki-halluzinationen-so-funktioniert-sepp-hochreiters-sdlg-methode
SDLG, KI, Hochreiter, Halluzination
(c) brutkasten - Sepp Hochreiter zu SDLG.

“Großartige Arbeit meines Teams: Erkennen, ob LLMs (Anm.: Large Language Models) halluzinieren. Sie halluzinieren, wenn sie unsicher sind. Wir erkennen diese Unsicherheit und markieren Halluzinationen” – so beschreibt KI-Koryphäe Sepp Hocheiter auf LinkedIn die Errungenschaft, die er uns seine Forscher:innen am Institut für Machine Learning der Johannes Kepler Universität Linz vollbracht haben. Dabei spricht er von dem SDLG-Modell. Der Begriff steht für “Semantically Diverse Language Generation”.

Denn es ist ein großes Thema, das die KI-Community beherrscht. Bei Nutzung von Künstlicher Intelligenz (KI) kann es passieren, dass man eine Frage stellt und falsche Antworten bekommt. Im Fachjargon sagt man dazu, die KI halluziniert.

SDLG verbessert Erkennung von Halluzinationen

Wie brutkasten berichtete, tun sich Giganten wie Google und Microsoft schwer, dieser Problematik habhaft zu werden. Eine neuer Lösungsansatz kam heuer vom Wiener Startup datAInsights, die statt impliziten explizite Fakten bzw. explizites Wissen verwenden, das dokumentiert ist. “Wir reichern bestehende Knowledge-Systeme mit Quellen an, sodass sie für unsere Architektur verarbeitet werden können”, erklärte datAInsights-Co-Founder René Heinzl im März 2023.

Nun kommt ein weiterer Lösungsansatz aus dem Umfeld von Sepp Hochreiter: SDLG. Diese neue Methode verbessert die Erkennung von Halluzinationen in LLMs (Large Language Modellen), indem es die Unsicherheitsabschätzung vorantreibt oder anders gesagt, aufzeigt, wenn ein Large Language Modell “unsicher” ist.

Man muss wissen, dass LLMs als Basis für Künstliche Intelligenz dienen und wie eine Zeichenkette aufgebaut sind. Hier wirken Wahrscheinlichkeiten, die das nächste Zeichen (konkret das nächste Wort oder um noch genauer zu sein, die nächsten Buchstaben) produzieren und Antworten auf Fragen liefern. Da kann es zu Fehlern oder falschen Informationen kommen.

Einstein oder Newton?

“Hochreiter präzisiert gegenüber brutkasten: “Halluzinationen können entstehen, wenn ein Trainingsdaten-Set fehlende oder zu wenige Daten zu einem Thema hat”, sagt er. “‘Albert Einstein hat die Relativitätstheorie entwickelt’ kann in verschiedenen Varianten (Anm.: Einstein hat die Relativitätstheorie erfunden, die Relativitätstheorie wurde von Einstein erfunden oder entwickelt, Der Vater der Relativitätstheorie ist Alber Einstein, etc.) im Trainingsdaten-Set als Information dienen. Gibt es diese nicht oder nur ungenügend, und die KI weiß, dass das Relativität etwas mit Physik zu tun hat, kann es sein, dass die Antwort plötzlich Newton ist.”

SDLG erkennt ob “LLMs halluzinieren”

Lukas Aichberger, “ELLIS PhD”-Student am Institut für Machine Learning der JKU beschreibt per LinkedIn-Post die SDLG-Methode – die er, Kajetan Schweighofer, Mykyta Ielanskyi und Sepp Hochreiter entwickelt haben – wie folgt: “Wir schaffen eine theoretische Grundlage für Unsicherheitsmaße in LLMs und führen theoretisch begründete ‘Estimatoren’ (Schätzer) für semantische Unsicherheit ein. Und stellen eine Methode zur Verfügung, um semantisch vielfältige und dennoch wahrscheinliche Ausgabesequenzen zu erzeugen, indem wir die Texterzeugung eines LLMs so steuern, dass wichtige Informationen für den semantischen Unsicherheitsschätzer erfasst werden.”

SDGL, KI, Halluzinationen, Hochreiter
(c) zVg – (v.l.) Sepp Hochreiter, Lukas Aichberger, Mykyta Ielanskyi und Kajetan Schweighofer.

In anderen Worten hebt die SDGL-Methode jene Aussagen hervor, wo sich die KI nicht sicher ist und markiert sie, damit man die durch “semantische Unsicherheit” (des Large Language Models) hervorgerufenen Halluzinationen erkennt, wie Hochreiter präzisiert.

Im 23-seitigen Paper, das die Forscher herausgebracht haben, heißt es konkret: “SDLG steuert das LLM, um semantisch unterschiedliche, aber wahrscheinliche Alternativen für einen ursprünglich generierten Text zu erzeugen. Dieser Ansatz liefert ein präzises Maß für die aleatorische (Anm.: vom Zufall abhängige) semantische Unsicherheit und erkennt, ob der ursprüngliche Text wahrscheinlich halluziniert ist. Experimente mit Aufgaben zur Beantwortung von Fragen zeigen, dass SDLG bestehende Methoden durchgängig übertrifft und dabei rechnerisch am effizientesten ist, wodurch ein neuer Standard für die Unsicherheitsabschätzung in LLMs gesetzt wird.”

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

BCG-Studie: Startups ziehen in der Arbeit mit Corporates den Kürzeren

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

BCG-Studie: Startups ziehen in der Arbeit mit Corporates den Kürzeren

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

BCG-Studie: Startups ziehen in der Arbeit mit Corporates den Kürzeren

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

BCG-Studie: Startups ziehen in der Arbeit mit Corporates den Kürzeren

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

BCG-Studie: Startups ziehen in der Arbeit mit Corporates den Kürzeren

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

BCG-Studie: Startups ziehen in der Arbeit mit Corporates den Kürzeren

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

BCG-Studie: Startups ziehen in der Arbeit mit Corporates den Kürzeren

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

BCG-Studie: Startups ziehen in der Arbeit mit Corporates den Kürzeren

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

BCG-Studie: Startups ziehen in der Arbeit mit Corporates den Kürzeren