21.08.2018

Google experimentierte auf YouTube mit Werbung für Fake-Pizza-Marke

Google hat mit einer neuen Methode experimentiert, um die Effektivität von Werbungen zu testen. Dabei wurden alte Grundregeln hinterfragt. Die Fake-Pizza-Marke Doctor Fork brachte aber nur bedingt neue Erkenntnisse.
/google-werbung-doctor-fork/
Doctor Fork Pizza
(c) YouTube/ Unskippable Experiment
Der Summary Modus bietet einen raschen
Überblick und regt zum Lesen mehrerer
Artikel an. Der Artikeltext wird AI-basiert
zusammengefasst mit der Unterstützung
des Linzer-Startups Apollo AI.

Das Google „Unskippable Labs“ Team hat in den vergangenen Monaten mit einem außergewöhnlichen Experiment die Effektivität von Werbung getestet. Dafür wurde die Fake-Pizza-Marke Doctor Fork erfunden. 20 Millionen Menschen wurden mit Werbung für das nicht existente Produkt erreicht. Es gäbe gewisse Grundsätze bei Werbungen, die nie hinterfragt würden, heißt es von Google. Als werbendes Unternehmen teste man das natürlich nicht aus, da es zu riskant sein könnte. Nachdem Doctor Fork aber keine echte Marke ist, gäbe es keine Grenzen.

+++ Welser Startup BistroBox verbreitet 24/7-Pizzaöfen in Österreich +++

„…damit wir falsch liegen können“

Ben Jones, der Creative Director bei Unskippable Labs sagt dazu in einem Interview mit dem US-Magazin TechCrunch: „Wir wollten diese Freiheit der markenlosen Werbung nutzen, damit wir falsch liegen können und Strategien hinterfragen, die andere Unternehmen nicht hinterfragen. Eine vorhandene Marke hat ein ganz klares Ziel vor Augen und könnte das nicht tun“. Als Kanal sei YouTube gewählt worden, da man dort sehr viele verschiedene Zielgruppen erreiche.

Doctor Fork-Werbungen für Pizza und Cheesecake

Es wurden zwei relativ undefinierte Produkte beworben: Eine Pizza und ein Cheesecake. Die beiden Kampagnen sollten jeweils etwas anderes austesten. Die Pizza-Werbungen sollten sensorische Integration in Werbungen testen. Die Werbung wurde in 18 Variationen ausgestrahlt, bei denen verschieden viel wert auf die Kombination von Text, Ton und Bild gelegt wurde. Die Cheesecake-Werbungen hingegen sollten mit dem Verhältnis zwischen Mensch und Essen experimentieren. Dazu gab es 15 Versionen, bei denen Menschen verschieden viel Präsenz hatten.

Nur bedingt neue Erkenntnisse

Und was kann man aus dem Experiment lernen? So unorthodox die Methode ist – die Ergebnisse sind gelinde gesagt nicht revolutionär. Unskippable Labs resümiert: Werbungen für Essen sollen versuchen, alle möglichen Sinne zu stimulieren. Für einen erhöhten Wiedererkennungswert sei es gut, Bilder von jeglicher Form von Text zu trennen. Ebenso wirke es, wenn in einer Werbung Anweisungen gegeben würden, wie sich der potentielle Kunde fühlen soll. Nahaufnahmen des Produkts würden ebenfalls gut funktionieren. Filmausschnitte aus der Perspektive der ersten Person kämen bei jüngeren Zuschauern besser an. Marken könnten sich generell mehr Freiheit nehmen, wenn es um den Einsatz von Menschen in Werbungen geht, so Unskippable Labs. Nun will Jones mit der Methode noch weitere Fragen beantworten.

Deine ungelesenen Artikel:
vor 28 Minuten

AI Act der EU: KI-Regulierung im Anmarsch

Was hat sich seit dem ersten AI-Act-Entwurf geändert? Welche Auswirkungen hat das auf Startups? Jeannette Gorzala, Rechtsanwältin und Mitglied von AI Austria sowie dem European AI Forum, klärt diese Fragen in ihrem Gastbeitrag auf.
/ai-act-der-eu-ki-regulierung-im-anmarsch/
In ihrem Gastbeitrag erklärt Gorzala, was der AI Act für Startups bedeutet. (c) (c) AdobeStock & Jeannette Gorzala

Seit der Veröffentlichung des ersten Entwurfs des Artificial Intelligence Act (AI Act) durch die Europäischen Kommission im April 2021 läuft das europäische Gesetzgebungsverfahren auf Hochtouren. Am 6. Dezember 2022, etwas mehr als eineinhalb Jahre nach der Erstveröffentlichung, wurde der gemeinsame Standpunkt im Rat der Europäischen Union (Rat) zum AI Act verabschiedet.

Die Definition des KI-Systems bestimmt, welche Technologien vom AI Act überhaupt betroffen sind, und damit die Pflichten von Herstellern und Nutzern. Im Vergleich zur ursprünglich umstrittenen, sehr weiten Definition, wirkt die neue stark eingegrenzt, da sie sich nunmehr nur auf Software bezieht, die machine learning oder Logik- sowie wissensbasierte Ansätze verwendet. Statistische Ansätze, Such-, Schätz- und Optimierungsmethoden wurden als KI-Technologien gestrichen. Dies darf jedoch nicht darüber hinwegtäuschen, dass das Verständnis von machine learning und Logik- und wissensbasierten Ansätzen sehr umfangreich ist.

Achtung bei Erstellung & Verwendung von General Purpose AI

Neu ist, dass auch general purpose AI systeme (auch wenn sie Open Source sind), die entweder Hochrisiko-Systeme sind oder als Komponenten für diese verwendet werden, die Compliance für Hochrisiko-Systeme erfüllen müssen. General purpose AI sind Systeme, die allgemeine Funktionen, wie beispielsweise Bild-, Sprach-, Texterkennung, Video- und Audioproduktion, Mustererkennung, Fragenbeantwortung oder Übersetzung ausführen können. Diese Bestimmung kann eine breite Palette von Entwicklern entlang der Software-Lieferkette betreffen, weshalb bereits jetzt auf good governance geachtet werden sollte. Die konkreten Pflichten stehen noch nicht fest und sollen durch weitere Rechtsakte konkretisiert werden.

AI Act sieht hohe Risiken bei Hochrisiko-KI

Für die Klassifizierung, ob ein Hochrisiko KI-System vorliegt, wird eine horizontale Ebene eingezogen. Diese soll dazu dienen, KI-Systeme, die wahrscheinlich zu keinen fundamentalen Risiken für Gesundheit, Sicherheit oder Grundrechte führen, weil ihr Output nur als Zusatz zu einer Aktion oder Entscheidung dient, von der Hochrisiko-Kategorie auszunehmen. Schwierig ist, dass hier erst spätestens einem Jahr nach Inkrafttreten des AI Acts genaue Vorgaben ergehen sollen. Startups müssen daher für die Einordnung ihres Geschäftsmodells ein zusätzliches Kriterium berücksichtigen, dass mit einer unklaren Abwägungsentscheidung behaftet ist. Startups mit Lösungen im Bereich Gesundheitsversicherung oder digitale Infrastruktur sollten im Auge behalten, dass diese Bereiche nunmehr ebenfalls der Hochrisiko-Kategorie hinzugefügt wurden.

Spielen im neuen KI-Sandkasten unter realen Konditionen, mit Haftung

Mit KI-Sandboxes soll ein kontrolliertes Umfeld geschaffen werden, in dem innovative KI-Systeme entwickelt, getestet und validiert werden können, dies unter der direkten Aufsicht und Anleitung der national zuständigen Behörden. Mit dem Ziel den AI Act innovationsfreundlich zu gestalten wurde klargestellt, dass AI Sandboxes auch das testen von KI-Systemen im Echtbetrieb erlauben sollen. Unter bestimmten Voraussetzungen soll auch das Testen von KI-Systemen außerhalb behördlicher Aufsicht zulässig sein. Klargestellt wird aber auch, die Teilnahme in der KI-Sandbox ist kein Freischein. Teilnehmer haften für jegliche verursachen Schäden.


Welcher Haftungsrahmen für KI geplant ist und was auf Softwareentwickler:innen zukommt, wird im zweiten Teil des Startup-Updates behandelt.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

Doctor Fork Pizza
(c) YouTube/ Unskippable Experiment

Google experimentierte auf YouTube mit Werbung für Fake-Pizza-Marke

Google hat mit einer neuen Methode experimentiert, um die Effektivität von Werbungen zu testen. Dabei wurden alte Grundregeln hinterfragt. Die Fake-Pizza-Marke Doctor Fork brachte aber nur bedingt neue Erkenntnisse.

Summary Modus

Google experimentierte auf YouTube mit Werbung für Fake-Pizza-Marke

Es gibt neue Nachrichten

Auch interessant