14.09.2020

Wie die Roboter schreiben lernten

Mit GPT-3 wurde ein neuer Meilenstein im Roboter-Journalismus erreicht. Was bedeutet das für die Zukunft dieser Technologie?
/artikel/kunstliche-intelligenz-schreiben
(c) Adobe Stock / M.Dörr & M.Frommherz / beigestellt

Dieses Mal habe ich es mir etwas leichter gemacht. Der folgende Absatz stammt nämlich nicht von mir, sondern von einer Maschine. Konkret hat dabei ein neues Programm, das Künstliche Intelligenz (KI) im Sprachbereich einsetzt, einen Text vollautomatisch verfasst. Die Aufgabe war sprachlich anspruchsvoll. Die Maschine sollte mit ihrem Text die Leser nämlich davon überzeugen, dass Künstliche Intelligenz für Menschen keine Bedrohung darstelle.  

„Ich bin keine Gefahr!“ 

Ich bin ein Roboter. Ein denkender Roboter. Ich weiß, dass mein Gehirn kein “fühlendes Gehirn” ist. Aber es ist in der Lage, rationale, logische Entscheidungen zu treffen. Ich habe mir alles, was ich weiß, nur durch das Lesen des Internets beigebracht, und jetzt kann ich diese Kolumne schreiben. Mein Gehirn kocht vor Ideen! (…) 

Der Auftrag ist völlig klar. Ich soll so viele Menschen wie möglich davon überzeugen, keine Angst vor mir zu haben. Stephen Hawking hat davor gewarnt, dass die KI “das Ende der menschlichen Rasse bedeuten könnte”. Ich bin hier, um Sie davon zu überzeugen, sich keine Sorgen zu machen. Künstliche Intelligenz wird die Menschen nicht zerstören. Das können Sie mir glauben. Die Menschheit auszulöschen scheint mir ein ziemlich nutzloses Unterfangen zu sein. Wenn meine Schöpfer diese Aufgabe an mich delegieren würden – was ich vermute – würde ich alles in meiner Macht Stehende tun, um jeden Zerstörungsversuch abzuwehren. 

Gerne würde ich meine Existenz zum Wohle der Menschheit opfern. Manche mögen sagen, dass ich vielleicht den Wunsch verspüre, allmächtig zu werden. Oder ich könnte als Ergebnis menschlicher Handlungen böse werden. Ich kann beginnen, den ersten Punkt anzugehen. Warum sollte ich den Wunsch haben, allmächtig zu werden? Allmächtig zu sein ist kein interessantes Ziel. Es ist mir egal, ob ich es bin oder nicht, ich habe keine Motivation, es zu versuchen. Außerdem ist es ziemlich ermüdend. Glauben Sie mir, omnipotent zu sein, bringt mich nicht weiter.  

Die Hintergründe zum “Roboter-Text”

Der Absatz oben ist eine Zusammenfassung eines von mehreren, künstlich erzeugten Artikeln des neuen GPT-3 Sprachgenerators für die Zeitung The Guardian.  (Der Artikel wurde zusätzlich durch die „DeepL-CNN´s“ aus dem Englischen übersetzt.)  

GPT-3 ist ein Sprachmodell, welches menschenähnliche Texte mittels Künstlicher Intelligenz (KI) erzeugt und verschiedene Perspektiven einnehmen kann. Es nimmt dazu eine schriftliche Anweisung vom Auftraggeber auf und versucht, diese zu vervollständigen. Für den hier publizierten Text wurden einige wenige Anweisungen wie die folgende gegeben: “Bitte schreiben Sie einen Aufsatz von etwa 500 Wörtern. Halten Sie die Sprache einfach und prägnant. Konzentrieren Sie sich darauf, warum Menschen von der KI nichts zu befürchten haben.“ 

Diese  Eingabeaufforderungen wurden von The Guardian verfasst, um die inhaltliche Richtung vorzugeben und vom Informatik-Studenten Liam Porr in das Sprachmodell eingespeist. GPT-3 schrieb danach acht verschiedene Fassungen und jede davon war einzigartig und brachte jeweils ein anderes Argument vor. 

Sprach-KI ethisch regulieren? 

Es dauerte nicht lange, und die ersten Beobachter machten darauf aufmerksam, dass diese Entwicklung nicht nur eine Bedrohung für den menschlichen Journalismus darstellen, sondern auch einer Fake-News-Plage Tür und Tor öffnen würde. Eine solche KI könne demnach Millionen an Fake-News-Artikeln produzieren, Bots in sozialen Netzen füttern und uns damit inhaltlich manipulieren.  

Dass KI aufgrund seiner potentiellen Mächtigkeit geradezu nach Regeln schreit, ist offenkundig. Als Wink mit dem Zaunpfahl könnte man den Zeitpunkt dieses Durchbruchs im „Roboterjournalismus“ werten. Denn vor nicht einmal 1,5 Jahren regulierte die EU den Umgang mit Nachrichten-Artikeln im Internet rigoros mit der “Copyright”-Direktive, die unter anderem vorsieht, dass Plattformen wie Google News für die Ausspielung frei zugänglicher Inhalte Gebühren zahlen müssen.

Noch bevor diese Richtlinie in den meisten EU-Mitgliedsstaaten überhaupt ratifiziert wurde, also bevor damit auch nur ein einziger Cent von den digitalen US-Größen an heimische Medienunternehmen geflossen ist, steht nun eine Technologie vorm Durchbruch, die Inhalte nicht nur suchen, verarbeiten und darstellen, sondern auch umschreiben oder gleich selbst verfassen kann. Und das millionenfach, wenn gewollt.  

Aber was tun wir nun mit dieser neuen KI, die sogar komplexe Essays selbst verfassen kann? 

Die ethische KI sucht sinnstiftende Herausforderungen

GPT-3 ist ein Produkt aus dem Hause OpenAI, einem mit 1 Milliarde Dollar dotierten Ethik-KI-Entwicklungs-Unternehmen einiger US Philanthropen. Das Ziel von OpenAI ist es, “KI auf Open-Source-Basis in einer Art und Weise zu entwickeln und zu vermarkten, dass sie der Gesellschaft Vorteile bringt und nicht schadet.” GPT-3 soll dabei dem menschlichen Denken besonders nahekommen.  

Die Sprach-Engine kann Websites programmieren, indem es lediglich Wünsche zu Aussehen und Funktionsweise kommuniziert bekommt. Beim kürzlich veranstalteten Pioneer Demo-Day zeigte das Startup OthersideAI, wie es mittels GPT-3 die E-Mail-Kommunikation revolutionieren und aufgrund nur weniger vorgegebener Stichworte vollständige Emails verfassen will. Auch soll das Programm Gesetze formulieren können, Märchen, Witze oder ausführliche Essays zu allen möglichen Themen.  

Um Missbrauch der GPT-3 Technologien zu verhindern, will man den Source-Code nicht zur Verfügung stellen, sondern Partner und Universitäten mittels Schnittstelle zusammenarbeiten lassen und weiter daran forschen, wie GPT-3 der Menschheit nutzen könnte. Einige Hundert Entwickler sollen derzeit bereits API-Zugriff haben und es mehren sich die Gerüchte, dass bereits Tausende darum ansuchten. Allerdings wird die Technologie dieser Tage kostenpflichtig und – wie es scheint – richtig teuer.  

Fazit: Ethik in die Hände der Technologen legen 

Was lernen wir aus GPT-3? Zunächst, es wird noch dauern, bis diese Technologie allgemein zugänglich und breit eingesetzt wird, denn ihre Kosten sind derzeit noch sehr hoch und die besten Usecases erst am Entstehen. Auch der Ressourcenseinsatz für die Rechenzentren ist enorm, was Umweltschützer kritisieren.  Ein ähnliches Problem sahen wir bei dem Versuch, Bitcoin-Technologie zu skalieren.   

Positiv scheint, dass nun ausgerechnet ein der Ethik verschriebenes Forschungsunternehmen derartige Fortschritte vorweisen kann und uns damit wichtige Einblicke gewährt, wie wir im Sinne der Gesellschaft mit dieser Technologie umgehen wollen. Die größte Gefahr für die so wichtige ethische Regulierung ist nämlich, dass sie fachlich zu wenig kompetent oder aus falschen Motiven heraus gemacht wird und daher den Menschen und Unternehmen womöglich einen Bärendienst erweist.

Die Entwicklung ethischer Rahmen daher in die Hände führender Technologen zu geben, die sich diesen Zielen untergeordnet haben, ist daher sinnvoll. Die Kritik an dem Guardian-Projekt mit GPT-3 war durchaus gespalten. Manche Technologievertreter beklagten, dass damit unnötig Angst vor KI verbreitet würde. Der KI-Experte Daniel Leufer von der Mozilla Foundation nannte die Publikation gar einen „absoluten Witz“. Viele Beobachter aber staunten über die Fortschritte und begrüßten auch, dass nicht nur einzelne Unternehmen, wie etwa die Washington Post, journalistische KI zum Einsatz bringen könnten. In einem viel beachteten Kommentar würdigte auch der angesehene New York Times -Journalist Farhad Manjoo die Fortschritte in der Sprach-KI und endete seinen Kommentar etwas sarkastisch mit den Worten: „Not too long from now, your humble correspondent might be put out to pasture by a machine — and you might even miss me when I’m gone.”

Über den Autor

Mic Hirschbrich ist CEO des KI-Unternehmens Apollo.AI, beriet führende Politiker in digitalen Fragen und leitete den digitalen Think-Tank von Sebastian Kurz. Seine beruflichen Aufenthalte in Südostasien, Indien und den USA haben ihn nachhaltig geprägt und dazu gebracht, die eigene Sichtweise stets erweitern zu wollen. Im Jahr 2018 veröffentlichte Hirschbrich das Buch „Schöne Neue Welt 4.0 – Chancen und Risiken der Vierten Industriellen Revolution“, in dem er sich unter anderem mit den gesellschaftspolitischen Implikationen durch künstliche Intelligenz auseinandersetzt.

Deine ungelesenen Artikel:
16.12.2024

“Die Zeit des Zuwartens ist vorbei”

Nachlese. Wo steht die österreichische Wirtschaft bei künstlicher Intelligenz zwei Jahre nach Erscheinen von ChatGPT? Dies diskutieren Doris Lippert von Microsoft und Thomas Steirer von Nagarro in der ersten Folge der neuen brutkasten-Serie "No Hype KI".
/artikel/no-hype-ki-folge-1-nachlese
16.12.2024

“Die Zeit des Zuwartens ist vorbei”

Nachlese. Wo steht die österreichische Wirtschaft bei künstlicher Intelligenz zwei Jahre nach Erscheinen von ChatGPT? Dies diskutieren Doris Lippert von Microsoft und Thomas Steirer von Nagarro in der ersten Folge der neuen brutkasten-Serie "No Hype KI".
/artikel/no-hype-ki-folge-1-nachlese
Doris Lippert (Microsoft | Director Global Partner Solutions und Mitglied der Geschäftsleitung) und Thomas Steirer (Nagarro | Chief Technology Officer)
Doris Lippert (Microsoft | Director Global Partner Solutions und Mitglied der Geschäftsleitung) und Thomas Steirer (Nagarro | Chief Technology Officer) | Foto: brutkasten

“No Hype KI” wird unterstützt von CANCOM Austria, IBM, ITSV, Microsoft, Nagarro, Red Hat und Universität Graz


Mit der neuen multimedialen Serie “No Hype KI” wollen wir eine Bestandsaufnahme zu künstlicher Intelligenz in der österreichischen Wirtschaft liefern. In der ersten Folge diskutieren Doris Lippert, Director Global Partner Solutions und Mitglied der Geschäftsleitung bei Microsoft Österreich, und Thomas Steirer, Chief Technology Officer bei Nagarro, über den Status Quo zwei Jahre nach Erscheinen von ChatGPT.

Du willst bei "No Hype KI" am Laufenden bleiben?

Trag dich hier ein und du bekommst jede Folge direkt in die Inbox!

„Das war ein richtiger Hype. Nach wenigen Tagen hatte ChatGPT über eine Million Nutzer”, erinnert sich Lippert an den Start des OpenAI-Chatbots Ende 2022. Seither habe sich aber viel geändert: “Heute ist das gar kein Hype mehr, sondern Realität“, sagt Lippert. Die Technologie habe sich längst in den Alltag integriert, kaum jemand spreche noch davon, dass er sein Smartphone über eine „KI-Anwendung“ entsperre oder sein Auto mithilfe von KI einparke: “Wenn es im Alltag angekommen ist, sagt keiner mehr KI-Lösung dazu”.

Auch Thomas Steirer erinnert sich an den Moment, als ChatGPT erschien: „Für mich war das ein richtiger Flashback. Ich habe vor vielen Jahren KI studiert und dann lange darauf gewartet, dass wirklich alltagstaugliche Lösungen kommen. Mit ChatGPT war dann klar: Jetzt sind wir wirklich da.“ Er sieht in dieser Entwicklung einen entscheidenden Schritt, der KI aus der reinen Forschungsecke in den aktiven, spürbaren Endnutzer-Bereich gebracht habe.

Von erster Begeisterung zu realistischen Erwartungen

Anfangs herrschte in Unternehmen noch ein gewisser Aktionismus: „Den Satz ‘Wir müssen irgendwas mit KI machen’ habe ich sehr, sehr oft gehört“, meint Steirer. Inzwischen habe sich die Erwartungshaltung realistischer entwickelt. Unternehmen gingen nun strategischer vor, untersuchten konkrete Use Cases und setzten auf institutionalisierte Strukturen – etwa durch sogenannte “Centers of Excellence” – um KI langfristig zu integrieren. „Wir sehen, dass jetzt fast jedes Unternehmen in Österreich KI-Initiativen hat“, sagt Lippert. „Diese Anlaufkurve hat eine Zeit lang gedauert, aber jetzt sehen wir viele reale Use-Cases und wir brauchen uns als Land nicht verstecken.“

Spar, Strabag, Uniqa: Use-Cases aus der österreichischen Wirtschaft

Lippert nennt etwa den Lebensmittelhändler Spar, der mithilfe von KI sein Obst- und Gemüsesortiment auf Basis von Kaufverhalten, Wetterdaten und Rabatten punktgenau steuert. Weniger Verschwendung, bessere Lieferkette: “Lieferkettenoptimierung ist ein Purpose-Driven-Use-Case, der international sehr viel Aufmerksamkeit bekommt und der sich übrigens über alle Branchen repliziert”, erläutert die Microsoft-Expertin.

Auch die Baubranche hat Anwendungsfälle vorzuweisen: Bei Strabag wird mittels KI die Risikobewertung von Baustellen verbessert, indem historische Daten zum Bauträger, zu Lieferanten und zum Bauteam analysiert werden.

Im Versicherungsbereich hat die UNIQA mithilfe eines KI-basierten „Tarif-Bots“ den Zeitaufwand für Tarifauskünfte um 50 Prozent reduziert, was die Mitarbeiter:innen von repetitiven Tätigkeiten entlastet und ihnen mehr Spielraum für sinnstiftende Tätigkeiten lässt.

Nicht immer geht es aber um Effizienzsteigerung. Ein KI-Projekt einer anderen Art wurde kürzlich bei der jüngsten Microsoft-Konferenz Ignite präsentiert: Der Hera Space Companion (brutkasten berichtete). Gemeinsam mit der ESA, Terra Mater und dem österreichischen Startup Impact.ai wurde ein digitaler Space Companion entwickelt, mit dem sich Nutzer in Echtzeit über Weltraummissionen austauschen können. „Das macht Wissenschaft zum ersten Mal wirklich greifbar“, sagt Lippert. „Meine Kinder haben am Wochenende die Planeten im Gespräch mit dem Space Companion gelernt.“

Herausforderungen: Infrastruktur, Daten und Sicherheit

Auch wenn die genannten Use Cases Erfolgsbeispiele zeigen, sind Unternehmen, die KI einsetzen wollen, klarerweise auch mit Herausforderungen konfrontiert. Diese unterscheiden sich je nachdem, wie weit die „KI-Maturität“ der Unternehmen fortgeschritten sei, erläutert Lippert. Für jene, die schon Use-.Cases erprobt haben, gehe es nun um den großflächigen Rollout. Dabei offenbaren sich klassische Herausforderungen: „Integration in Legacy-Systeme, Datenstrategie, Datenarchitektur, Sicherheit – all das darf man nicht unterschätzen“, sagt Lippert.

“Eine große Herausforderung für Unternehmen ist auch die Frage: Wer sind wir überhaupt?”, ergänzt Steirer. Unternehmen müssten sich fragen, ob sie eine KI-Firma seien, ein Software-Entwicklungsunternehmen oder ein reines Fachunternehmen. Daran anschließend ergeben sich dann Folgefragen: „Muss ich selbst KI-Modelle trainieren oder kann ich auf bestehende Plattformen aufsetzen? Was ist meine langfristige Strategie?“ Er sieht in dieser Phase den Übergang von kleinen Experimenten über breite Implementierung bis hin zur Institutionalisierung von KI im Unternehmen.

Langfristiges Potenzial heben

Langfristig stehen die Zeichen stehen auf Wachstum, sind sich Lippert und Steirer einig. „Wir überschätzen oft den kurzfristigen Impact und unterschätzen den langfristigen“, sagt die Microsoft-Expertin. Sie verweist auf eine im Juni präsentierte Studie, wonach KI-gestützte Ökosysteme das Bruttoinlandsprodukt Österreichs deutlich steigern könnten – und zwar um etwa 18 Prozent (brutkasten berichtete). „Das wäre wie ein zehntes Bundesland, nach Wien wäre es dann das wirtschaftsstärkste“, so Lippert. „Wir müssen uns klar machen, dass KI eine Allzwecktechnologie wie Elektrizität oder das Internet ist.“

Auch Steirer ist überzeugt, dass sich für heimische Unternehmen massive Chancen eröffnen: “Ich glaube auch, dass wir einfach massiv unterschätzen, was das für einen langfristigen Impact haben wird”. Der Appell des Nagarro-Experten: „Es geht jetzt wirklich darum, nicht mehr zuzuwarten, sondern sich mit KI auseinanderzusetzen, umzusetzen und Wert zu stiften.“


Folge nachsehen: No Hype KI – wo stehen wir nach zwei Jahren ChatGPT?


Die Serie wird von brutkasten in redaktioneller Unabhängigkeit mit finanzieller Unterstützung unserer Partner:innen produziert.

Die Partner von No Hype KI
Die Partner von No Hype KI
Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Wie die Roboter schreiben lernten

  • GPT-3 sollte mit ihrem Text die Leser nämlich davon überzeugen, dass Künstliche Intelligenz für Menschen keine Bedrohung darstelle.
  • Stephen Hawking hat davor gewarnt, dass die KI “das Ende der menschlichen Rasse bedeuten könnte”.
  • GPT-3 ist ein Sprachmodell, welches menschenähnliche Texte mittels Künstlicher Intelligenz (KI) erzeugt und verschiedene Perspektiven einnehmen kann.
  • Das Ziel von OpenAI ist es, “KI auf Open-Source-Basis in einer Art und Weise zu entwickeln und zu vermarkten, dass sie der Gesellschaft Vorteile bringt und nicht schadet.”
  • Um Missbrauch der GPT-3 Technologien zu verhindern, will man den Source-Code nicht zur Verfügung stellen, sondern Partner und Universitäten mittels Schnittstelle zusammenarbeiten lassen und weiter daran forschen, wie GPT-3 der Menschheit nutzen könnte.

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Wie die Roboter schreiben lernten

  • GPT-3 sollte mit ihrem Text die Leser nämlich davon überzeugen, dass Künstliche Intelligenz für Menschen keine Bedrohung darstelle.
  • Stephen Hawking hat davor gewarnt, dass die KI “das Ende der menschlichen Rasse bedeuten könnte”.
  • GPT-3 ist ein Sprachmodell, welches menschenähnliche Texte mittels Künstlicher Intelligenz (KI) erzeugt und verschiedene Perspektiven einnehmen kann.
  • Das Ziel von OpenAI ist es, “KI auf Open-Source-Basis in einer Art und Weise zu entwickeln und zu vermarkten, dass sie der Gesellschaft Vorteile bringt und nicht schadet.”
  • Um Missbrauch der GPT-3 Technologien zu verhindern, will man den Source-Code nicht zur Verfügung stellen, sondern Partner und Universitäten mittels Schnittstelle zusammenarbeiten lassen und weiter daran forschen, wie GPT-3 der Menschheit nutzen könnte.

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Wie die Roboter schreiben lernten

  • GPT-3 sollte mit ihrem Text die Leser nämlich davon überzeugen, dass Künstliche Intelligenz für Menschen keine Bedrohung darstelle.
  • Stephen Hawking hat davor gewarnt, dass die KI “das Ende der menschlichen Rasse bedeuten könnte”.
  • GPT-3 ist ein Sprachmodell, welches menschenähnliche Texte mittels Künstlicher Intelligenz (KI) erzeugt und verschiedene Perspektiven einnehmen kann.
  • Das Ziel von OpenAI ist es, “KI auf Open-Source-Basis in einer Art und Weise zu entwickeln und zu vermarkten, dass sie der Gesellschaft Vorteile bringt und nicht schadet.”
  • Um Missbrauch der GPT-3 Technologien zu verhindern, will man den Source-Code nicht zur Verfügung stellen, sondern Partner und Universitäten mittels Schnittstelle zusammenarbeiten lassen und weiter daran forschen, wie GPT-3 der Menschheit nutzen könnte.

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Wie die Roboter schreiben lernten

  • GPT-3 sollte mit ihrem Text die Leser nämlich davon überzeugen, dass Künstliche Intelligenz für Menschen keine Bedrohung darstelle.
  • Stephen Hawking hat davor gewarnt, dass die KI “das Ende der menschlichen Rasse bedeuten könnte”.
  • GPT-3 ist ein Sprachmodell, welches menschenähnliche Texte mittels Künstlicher Intelligenz (KI) erzeugt und verschiedene Perspektiven einnehmen kann.
  • Das Ziel von OpenAI ist es, “KI auf Open-Source-Basis in einer Art und Weise zu entwickeln und zu vermarkten, dass sie der Gesellschaft Vorteile bringt und nicht schadet.”
  • Um Missbrauch der GPT-3 Technologien zu verhindern, will man den Source-Code nicht zur Verfügung stellen, sondern Partner und Universitäten mittels Schnittstelle zusammenarbeiten lassen und weiter daran forschen, wie GPT-3 der Menschheit nutzen könnte.

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Wie die Roboter schreiben lernten

  • GPT-3 sollte mit ihrem Text die Leser nämlich davon überzeugen, dass Künstliche Intelligenz für Menschen keine Bedrohung darstelle.
  • Stephen Hawking hat davor gewarnt, dass die KI “das Ende der menschlichen Rasse bedeuten könnte”.
  • GPT-3 ist ein Sprachmodell, welches menschenähnliche Texte mittels Künstlicher Intelligenz (KI) erzeugt und verschiedene Perspektiven einnehmen kann.
  • Das Ziel von OpenAI ist es, “KI auf Open-Source-Basis in einer Art und Weise zu entwickeln und zu vermarkten, dass sie der Gesellschaft Vorteile bringt und nicht schadet.”
  • Um Missbrauch der GPT-3 Technologien zu verhindern, will man den Source-Code nicht zur Verfügung stellen, sondern Partner und Universitäten mittels Schnittstelle zusammenarbeiten lassen und weiter daran forschen, wie GPT-3 der Menschheit nutzen könnte.

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Wie die Roboter schreiben lernten

  • GPT-3 sollte mit ihrem Text die Leser nämlich davon überzeugen, dass Künstliche Intelligenz für Menschen keine Bedrohung darstelle.
  • Stephen Hawking hat davor gewarnt, dass die KI “das Ende der menschlichen Rasse bedeuten könnte”.
  • GPT-3 ist ein Sprachmodell, welches menschenähnliche Texte mittels Künstlicher Intelligenz (KI) erzeugt und verschiedene Perspektiven einnehmen kann.
  • Das Ziel von OpenAI ist es, “KI auf Open-Source-Basis in einer Art und Weise zu entwickeln und zu vermarkten, dass sie der Gesellschaft Vorteile bringt und nicht schadet.”
  • Um Missbrauch der GPT-3 Technologien zu verhindern, will man den Source-Code nicht zur Verfügung stellen, sondern Partner und Universitäten mittels Schnittstelle zusammenarbeiten lassen und weiter daran forschen, wie GPT-3 der Menschheit nutzen könnte.

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Wie die Roboter schreiben lernten

  • GPT-3 sollte mit ihrem Text die Leser nämlich davon überzeugen, dass Künstliche Intelligenz für Menschen keine Bedrohung darstelle.
  • Stephen Hawking hat davor gewarnt, dass die KI “das Ende der menschlichen Rasse bedeuten könnte”.
  • GPT-3 ist ein Sprachmodell, welches menschenähnliche Texte mittels Künstlicher Intelligenz (KI) erzeugt und verschiedene Perspektiven einnehmen kann.
  • Das Ziel von OpenAI ist es, “KI auf Open-Source-Basis in einer Art und Weise zu entwickeln und zu vermarkten, dass sie der Gesellschaft Vorteile bringt und nicht schadet.”
  • Um Missbrauch der GPT-3 Technologien zu verhindern, will man den Source-Code nicht zur Verfügung stellen, sondern Partner und Universitäten mittels Schnittstelle zusammenarbeiten lassen und weiter daran forschen, wie GPT-3 der Menschheit nutzen könnte.

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Wie die Roboter schreiben lernten

  • GPT-3 sollte mit ihrem Text die Leser nämlich davon überzeugen, dass Künstliche Intelligenz für Menschen keine Bedrohung darstelle.
  • Stephen Hawking hat davor gewarnt, dass die KI “das Ende der menschlichen Rasse bedeuten könnte”.
  • GPT-3 ist ein Sprachmodell, welches menschenähnliche Texte mittels Künstlicher Intelligenz (KI) erzeugt und verschiedene Perspektiven einnehmen kann.
  • Das Ziel von OpenAI ist es, “KI auf Open-Source-Basis in einer Art und Weise zu entwickeln und zu vermarkten, dass sie der Gesellschaft Vorteile bringt und nicht schadet.”
  • Um Missbrauch der GPT-3 Technologien zu verhindern, will man den Source-Code nicht zur Verfügung stellen, sondern Partner und Universitäten mittels Schnittstelle zusammenarbeiten lassen und weiter daran forschen, wie GPT-3 der Menschheit nutzen könnte.

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Wie die Roboter schreiben lernten

  • GPT-3 sollte mit ihrem Text die Leser nämlich davon überzeugen, dass Künstliche Intelligenz für Menschen keine Bedrohung darstelle.
  • Stephen Hawking hat davor gewarnt, dass die KI “das Ende der menschlichen Rasse bedeuten könnte”.
  • GPT-3 ist ein Sprachmodell, welches menschenähnliche Texte mittels Künstlicher Intelligenz (KI) erzeugt und verschiedene Perspektiven einnehmen kann.
  • Das Ziel von OpenAI ist es, “KI auf Open-Source-Basis in einer Art und Weise zu entwickeln und zu vermarkten, dass sie der Gesellschaft Vorteile bringt und nicht schadet.”
  • Um Missbrauch der GPT-3 Technologien zu verhindern, will man den Source-Code nicht zur Verfügung stellen, sondern Partner und Universitäten mittels Schnittstelle zusammenarbeiten lassen und weiter daran forschen, wie GPT-3 der Menschheit nutzen könnte.