02.06.2023

“Human or not?”: In diesem Chat muss man erkennen, ob man mit einer AI spricht

Zwei Minuten Chat, dann muss man entscheiden: Human or not? Und gar nicht wenige Proband:innen liegen daneben.
/artikel/human-or-not-ki-chatbot
(c) Nice M Nshuti via Unsplash

Man klickt auf “Start Game”, dann wartet man kurz. Entweder startet das Gegenüber den Chat, oder man selbst wird dazu aufgefordert. Nun bleiben zwei Minuten Zeit für eine kurze Konversation. Am Ende muss man entscheiden: Mensch oder KI? Hat man mit einem anderen User oder mit einem Chatbot getippt? Die Antwort wird prompt geliefert. So funktioniert “Human or not?” des israelischen KI-Scaleups AI21 Labs.

Großangelegtes Turing-Experiment

Das Spiel dient nicht nur zum Selbsttest oder zur Belustigung. Tatsächlich handelt es sich dabei um ein großangelegtes Turing-Experiment. Die “Spielregeln” dafür wurden bereit in den 1950er-Jahren vom britischen Mathematiker Alan Turing definiert – damals rein hypothetisch: Wenn eine Maschine ihr menschliches Gegenüber davon überzeugen kann, dass sie ein Mensch ist, hat sie den “Turing-Test” bestanden. [Anm: Der Wissenschaftler konzipierte damals ein Setting, in dem die Testperson blind mit zwei Gesprächspartner:innen konfrontiert wird, von denen nur eine:r ein Mensch ist.]

human or not?
Screenshot www.humanornot.ai: Beim Chat-Partner (weiß) handelt es sich um eine KI

“Human or not?”-Chatbot täuscht Nutzer:innen in 40 Prozent der Konversationen

Und tatsächlich gelingt es der “Human or not?”-KI, die auf GPT-4 von OpenAI und dem hauseigenen Sprachmodell Jurassic-2 basiert, gar nicht so selten, Spieler:innen zu täuschen. Das Spiel ist seit Mitte April online und wurde seitdem laut des AI21 Labs von mehr als 1,5 Millionen Menschen ausprobiert, die insgesamt mehr als zehn Millionen Konversationen führten. Nun veröffentlichte das Unternehmen einen Zwischenbericht mit Statistiken.

Demnach lagen die “Human or not?”-User:innen in 68 Prozent der Fälle richtig mit ihrer Einschätzung. Während die Testpersonen allerdings ein menschliches Gegenüber in 73 Prozent der Konversationen korrekt identifizierten, schaffen sie das bei einem KI-Gesprächspartner nur in 60 Prozent der Fälle. Anders gesagt, die Künstliche Intelligenz schafft es in 40 Prozent der Chats, ihr Gegenüber erfolgreich zu täuschen und somit den abgewandelten Turing-Test zu bestehen.

Franzos:innen liegen öfter richtig

Während das Geschlecht der Proband:innen bei der Einschätzung kaum relevant ist (Frauen liegen 67,7, Männer in 67,4 Prozent der Fälle richtig), gibt es etwas größere Unterschiede zwischen den Herkunftsländern und den Altersgruppen der Testpersonen. Positiv stechen Spieler:innen aus Frankreich heraus mit 71,3 Prozent richtigen Einschätzungen, negativ Personen aus Indien mit nur 63,5 Prozent. Von den Altersgruppen liegen die 35- bis 44-Jährigen mit 67,8 Prozent am häufigsten richtig. Am häufigsten täuschen lassen sich die 55- bis 64-Jährigen sowie die über 65-Jährigen (jeweils 66,2 Prozent korrekte Einschätzungen).

(c) AI21 Labs
(c) AI21 Labs

Strategien, um der “Human or not?”-KI nicht auf den Leim zu gehen

AI21 Labs wertete auch die von Nutzer:innen eingegebenen Phrasen aus und leitete daraus typische Strategien ab, Mensch von KI zu unterscheiden. So würden Proband:innen etwa von der Annahme ausgehen, dass der Chatbot keine Rechtschreib- und Grammatik-Fehler macht und keine Slang-Ausdrücke nutzt. Tatsächlich wurde er aber auch darauf trainiert. User:innen versuchen es häufig mit persönlichen Fragen oder Fragen zu aktuellen Ereignissen – auch darauf kann die “Human or not?”-KI erstaunlich gut antworten. Gar nicht wenige Spieler:innen schließlich geben sich selbst als KI-Chatbot aus – was ihnen laut dem Startup tendenziell nicht so gut gelingt.

Deine ungelesenen Artikel:
08.05.2024

Wiener LegalTech fairesLeben erhält Pre-Seed-Investment gegen Hass im Netz

Das Investment liegt laut fairesLeben im sechsstelligen Bereich - und sei schon das fünfte in drei Jahren.
/artikel/wiener-legaltech-fairesleben-erhaelt-pre-seed-investment-gegen-hass-im-netz
08.05.2024

Wiener LegalTech fairesLeben erhält Pre-Seed-Investment gegen Hass im Netz

Das Investment liegt laut fairesLeben im sechsstelligen Bereich - und sei schon das fünfte in drei Jahren.
/artikel/wiener-legaltech-fairesleben-erhaelt-pre-seed-investment-gegen-hass-im-netz
Richard Eibl, Thaddäus Leutzendorff und Julius Richter (c) Padronus, fairesLeben

“Unser Ziel ist es, Menschen ihrer Rechte bewusst zu machen und diese auch fair durchzusetzen”, schreibt CEO und Gründer Thaddäus Leutzendorff. Nach diesem Claim operiert das Wiener LegalTech fairesLeben seit seiner Gründung im Juni 2020.

Die heimischen Gesetze ermöglichen es viel häufiger, sich verlorenes oder zu viel bezahltes Geld zurückzuholen, als man meinen würde. Das Startup fairesLeben will seinen Kund:innen genau dabei helfen – berichtete brutkasten schon im Februar 2022. Schon damals wurde das Startup in einer Finanzierungsrunde mit sieben Millionen Euro bewertet.

Die “fairenSpinoffs” des Startups

In einem brutkasten Gastbeitrag schrieb CEO Leutzendorff bereits über das Thema Sexismus im Netz – und wie die Anlaufstelle “fairesNetz” des Startups Betroffenen die Möglichkeit bietet, Hasskommentare zu melden. Über die Plattform fairesLeben können sich Kund:innen außerdem Verluste aus illegalen Online-Casinos zurückholen (“fairesSpiel”). Weitere Zweigstellen des LegalTechs sind “faireMiete” zur Senkung von Altbaumieten, “fairesRecht” als Schnittstelle zwischen Mandant:innen und Anwält:innen, sowie “faireDaten”, “faires Gaming” und “fairesTrading”.

Das LegalTech tritt in seinen Fachbereichen als Prozessfinanzierer auf: Die fairesLeben ABC GmbH finanziert und fördert Kund:innnen bei der Geltendmachung ihrer rechtlichen Ansprüche gegen Gegenparteien. Die Unterstützung bei der Durchsetzung der diesbezüglichen Rechte soll Kund:innen bei einer Liquiditätsbeschaffung helfen.

Fünfte Pre-Seed-Finanzierungsrunde in drei Jahren

Nun kommuniziert das Startup seine fünfte Pre-Seed-Finanzierungsrunde in drei Jahren: Im Mittepunkt stand dieses Mal die fairesNetz GmbH – eines der oben genannten Spinoffs des Unternehmens. Das Investment, ein sechsstelliger Betrag, wurde von den langjährigen Kooperationspartnern Richard Eibl und Julius Richter, den Gründern von Mietheld und Padronus, getätigt, heißt es in einer Aussendung.

Der Schritt von langjährigen Kooperationspartnern zu Investoren sei “ein bedeutender”: “Das Fachwissen und das umfangreiche Netzwerk der beiden Investoren, die als erfahrene Prozessfinanzierer seit zehn Jahren in der Branche tätig sind, bieten für fairesNetz einen unschätzbaren Wert”, so der CEO.

“Beleidigungen und Bedrohungen im Internet nehmen drastisch zu”, erklärt Leutzendorff und meint weiter: “Wir haben über die vergangenen 18 Monate hart an einer Lösung gearbeitet, um Betroffene zu schützen und Täter:innen auszuforschen und zur Rechenschaft zu ziehen. Dabei profitieren wir von den neuen legistischen Mitteln, die der europäische und österreichische Gesetzgeber geschaffen haben, um gegen Hass im Netz rechtlich vorzugehen.”

So funktioniert “fairesNetz”

Das Herzstück des Unternehmens sei eine selbst entwickelte Software, die mithilfe von Künstlicher Intelligenz Inhalte auf Social-Media-Profilen von Kund:innen prüft. Bei der Identifizierung schädlicher Inhalte werden die Täter:innen ausgeforscht und rechtliche Schritte eingeleitet.

Die Software von “fairesNetz” sei erst seit drei Monaten live, heißt es vom Startup. Trotz der relativ kurzen Laufzeit vertritt das Unternehmen bereits Kund:innen in Deutschland und Österreich. Täglich sollen um die 2.000 Inhalte geprüft werden, heißt es.

“Das Zeitalter von Künstlicher Intelligenz macht es uns überhaupt erst möglich, die Massen an Hassnachrichten und Hasskommentaren effizient und zielgerichtet zu verarbeiten”, so Thaddäus Leutzendorff.

Bis zu Strafanzeigen und Schadenersätzen

Konkret können Betroffene der Anlaufstelle “fairesNetz” anhand von Fragen eine Meldung übermitteln. FairesNetz überprüft das übermittelte Posting auf Inhalt, Gewichtung und Umsetzbarkeit. Über kooperierende Rechtsanwälte wird der Postende abgemahnt, wobei es bei schweren Drohungen zu Strafanzeigen der Schadenersatzzahlungen kommen kann. 

Für Kund:innen entsteht laut Startup kein Aufwand, das Startup selbst kümmert sich mit seinen Partnern um den Prozess. Auch Kostenrisiken sind ausgeschlossen – Hilfe erhalten Hilfesuchende in Österreich und Deutschland kostenlos und digital, heißt es. 

“Wenn du also Hass-Nachrichten bekommst, kannst du diese ganz einfach und mit wenig Aufwand an uns weiterleiten und wir kümmern uns um die gesamte Abwicklung und die Kosten des weiteren Vorgehens. Dabei fallen für dich also keine Ausgaben an”, erklärt das Startup seinen Prozess auf seiner Website.

Investment soll Marketing und Vertrieb pushen

Mit dem neuen Investment soll vor allem das Marketing und der Vertrieb von “fairesNetz” vorangetrieben werden, um den Kundenstamm zu vergrößern. Indes wolle man eine eigene künstliche Intelligenz trainieren, die auf den Use-Case der Identifizierung von Hass im Netz spezialisiert ist.

Unterstützt werden sollen Persönlichkeiten, “die sich öffentlich präsentieren”, “egal ob Sportler:innen, Influencer:innen oder Politiker:innen”, sagt Leutzendorff. Die Liste all jener, “die täglich Hass erleben müssen, ist leider endlos”, meint der CEO. Das Investment soll den “Kampf gegen Hass im Netz fortsetzen”, und die Dienste von “fairesNetz” weiter aufbauen.

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

“Human or not?”: In diesem Chat muss man erkennen, ob man mit einer AI spricht

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Die gesellschaftspolitischen Auswirkungen dieses Artikels sind sehr vielfältig. Einerseits zeigt es den Fortschritt der Künstlichen Intelligenz und wie sie immer menschlicher wird. Andererseits wirft es ethische Fragen auf, ob Künstliche Intelligenz und menschliche Intelligenz gleichgestellt werden sollten. Es zeigt auch, wie wichtig es ist, dass die Gesellschaft über die Entwicklung von KI informiert ist, um das Bewusstsein für mögliche Auswirkungen auf die Arbeitsplätze und die Privatsphäre zu stärken.

“Human or not?”: In diesem Chat muss man erkennen, ob man mit einer AI spricht

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Der Erfolg von “Human or not?” als großangelegtes Turing-Experiment, bei dem es darum geht, ob man mit einer KI oder einem menschlichen Gesprächspartner redet, zeigt die Fähigkeiten der KI-Technologie und ihr Potenzial in verschiedenen Branchen. Unternehmen können diese Technologie nutzen, um die Kommunikation mit ihren Kunden zu verbessern und automatisierte Assistenz- und Support-Systeme zu entwickeln. Gleichzeitig zeigt der Artikel, dass die Technologie immer noch ihre Grenzen hat und noch weiter verbessert werden muss, um menschliche Konversationen vollständig zu simulieren.

“Human or not?”: In diesem Chat muss man erkennen, ob man mit einer AI spricht

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Als Innovationsmanager:in ist es wichtig, sich mit den neuesten Technologien auseinanderzusetzen und immer up-to-date zu sein. Die “Human or not?”-KI ist ein Beispiel für eine Technologie, die die Grenzen zwischen Mensch und Maschine verschwimmen lässt und hat somit potenziell Auswirkungen auf die Entwicklung von KI und ihre Integration in den Arbeitsplatz. Ein Verständnis dafür, wie Mittel zur Unterscheidung von Maschine und Mensch entwickelt werden können, ist daher wichtig für Innovationsmanager:innen, um neue Möglichkeiten zu erschließen, die sich im Bereich KI ergeben.

“Human or not?”: In diesem Chat muss man erkennen, ob man mit einer AI spricht

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Als Investor:in kann dieser Artikel relevant sein, da er Einblicke in die Fortschritte und Potenziale der Künstlichen Intelligenz gibt. Insbesondere das Experiment des Turing-Tests zeigt, dass KI-Systeme menschenähnliche Fähigkeiten erlangen können. Daher lohnt es sich, die Entwicklungen in diesem Bereich im Auge zu behalten und mögliche Investitionsmöglichkeiten zu evaluieren.

“Human or not?”: In diesem Chat muss man erkennen, ob man mit einer AI spricht

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Als Politiker:in ist es wichtig, sich mit aktuellen Entwicklungen im Bereich der künstlichen Intelligenz auseinanderzusetzen, da sie unsere Gesellschaft und Wirtschaft in vielfältiger Weise beeinflussen. Das “Human or not?”-Spiel des israelischen KI-Scaleups AI21 Labs zeigt die immer fortschreitenden Fortschritte im Bereich der KI und verdeutlicht zudem die Schwierigkeit, Mensch und KI voneinander zu unterscheiden. Solche Experimente und Tests können dazu beitragen, unser Verständnis von KI zu verbessern und ihre Auswirkungen auf unsere Gesellschaft und Arbeitswelt besser zu verstehen. Als Politiker:in sollten Sie sich daher mit diesen Entwicklungen auseinandersetzen und über die notwendigen Regulierungen und Maßnahmen nachdenken, um die Vor- und Nachteile von KI in Einklang zu bringen.

“Human or not?”: In diesem Chat muss man erkennen, ob man mit einer AI spricht

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Der Turing-Test ist seit langem eine wichtige Fragestellung der KI-Forschung und bleibt auch heute relevant, da KI-Systeme immer ausgefeilter werden. Das israelische AI-Startup AI21 Labs hat mit “Human or not?” ein Spiel kreiert, das den Turing-Test nachbildet und Menschen und KI-Chatbots miteinander verbindet. Der Test hat gezeigt, dass KI-Systeme in der Lage sind, Menschen auf eine Weise zu täuschen, die sehr nahe an menschlicher Interaktion ist. Das Spiel hebt hervor, dass KI-Systeme immer komplexer werden und dass es schwierig ist, sie von menschlicher Kommunikation zu unterscheiden.

“Human or not?”: In diesem Chat muss man erkennen, ob man mit einer AI spricht

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

  • Alan Turing
  • Die Entwickler des “Human or not?”-Chats des israelischen KI-Scaleups AI21 Labs

“Human or not?”: In diesem Chat muss man erkennen, ob man mit einer AI spricht

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

  • AI21 Labs
  • OpenAI

“Human or not?”: In diesem Chat muss man erkennen, ob man mit einer AI spricht