✨ AI Kontextualisierung
Google möchte in Zukunft deine alltäglichen Probleme lösen. Möglich werden soll das durch ein derzeit getestetes Tool mit generativer Künstlicher Intelligenz. Erst im April fusionierte der Tech-Gigant das Londoner Forschungslabor DeepMind mit seinem eigenen AI-Team Brain. Das neue Team, jetzt Google DeepMind genannt, möchte es laut New York Times mit diesem Projekt möglich machen, zumindest 21 verschiedene persönliche und professionelle Aufgaben von AI erledigen zu lassen.
Konkret sollen unter anderem Tutorials, Rezeptideen oder Life Advice möglich werden. Ein Beispiel für eine Life Advice Situation ist laut New York Times etwa, dass jemand finanziell nicht in der Lage ist, an der Hochzeit einer engen Freundin teilzunehmen, da damit hohe Ausgaben für Flug und Hotel verbunden sind. Die KI zeigt dann Möglichkeiten auf, mit der Situation umzugehen.
Google KI schlecht für die Gesundheit?
Erst im Dezember warnten jedoch Googles AI-Sicherheitsexperten vor möglichen negativen Auswirkungen auf die Gesundheit und das allgemeine Wohlbefinden, sollten User:innen Lebensratschlägen von AI-Programmen folgen. Seit März ist bereits Bard, ein KI-Chatbot von Google, öffentlich zugänglich. In dessen Datenschutzhinweisen ist zu lesen: „Verlasse dich nicht auf die Antworten von Bard, wenn du medizinischen, rechtlichen, finanziellen oder anderen professionellen Rat erhalten möchtest“.
Negative Konsequenzen von Künstlicher Intelligenz befürchtete auch Blake Lemoine, ehemaliger Softwareentwickler bei Google, der 2022 gekündigt wurde als er öffentlich äußerte, Googles AI-Modell LaMDA hätte ein Bewusstsein entwickelt. Diese Aussage ist bei Experten äußerst umstritten, bildet aber gut das Ausmaß der Sorge um die neue Technologie ab.
Vorteile überwiegen (vielleicht) die Risiken
DeepMinds CEO Demis Hassabis ist jedoch der Überzeugung, dass die Vorteile von künstlicher Intelligenz – besonders im Hinblick auf Gesundheit oder Klimaschutz – einen Stopp der Weiterentwicklung von AI nicht rechtfertigen. Ein solcher wäre laut Hassabis auch fast unmöglich zu kontrollieren. “If done correctly, it will be the most beneficial technology for humanity ever,” sagt er über KI. “We’ve got to boldly and bravely go after those things.”
Gleichzeitig scheut sich DeepMind aber nicht, vor möglichen Risiken von KI zu warnen. Shane Legg, einer der Co-Founder von DeepMind war jahrelang Vorstand einer AI-Sicherheitsgruppe innerhalb des Unternehmens. CEO Hassabis war auch einer von vielen in der Szene hoch angesehenen Unterzeichnern eines im Mai veröffentlichen Statements, das die möglichen Gefahren von Künstlicher Intelligenz jenen von Atomkrieg oder einer Pandemie gleichstellt.
Google DeepMind arbeitet währenddessen auch an Tools, die das Arbeitsleben erleichtern sollen – wie zum Beispiel Generierung von wissenschaftlichen, kreativen und professionell geschriebenen Artikeln, oder die Extrahierung von Daten aus einem Text. Googles AI-Sicherheitsexperten warnten im Dezember vor solch einer generierenden KI, da sie zu einer Gefahr für kreative Texter werden könnte.