06.06.2023

Apple bringt 3.500 Dollar VR/AR-Brille raus – Bilder schneller als ein “Wimpernschlag”

Apple hat auf seiner jährlich stattfindenden Konferenz die Vision Pro vorgestellt. Und möchte damit den physischen und virtuellen Raum mit der Nutzer:innen-Interaktion noch enger als üblich verschmelzen.
/artikel/apple-bringt-3-500-dollar-vr-ar-brille-raus
Vision Pro
(c) Apple/Screenshot - Die VR/AR-Brille soll ab 2024 verfügbar sein.

Apple hat auf seiner jährlichen WWDC 2023-Konferenz die Vision Pro vorgestellt, ein neues VR/AR-Headset. Daneben präsentierte der US-Konzern auch ein neues Betriebssystem, visionOS, und eine Reihe von Apps, die bei der Markteinführung – und damit auch für Vision Pro – verfügbar sein werden. Apple-Chef Tim Cook nannte die Brille “den Anfang einer Reise für einen neuen Umgang mit persönlicher Technologie.”

Vision Pro ein neuer Umgang mit Technologie?

Vision Pro ist nicht nur für Gamer gedacht, sondern soll auch für Arbeit, virtuelle Konferenzen und Medienkonsum geeignet sein. Die genutzten Apps werden aus der Sicht der User:innen in den Raum projiziert, sodass etwa Webseiten direkt vor einem erscheinen, etwa über dem Bürotisch. Die Steuerung soll ausschließlich über Augenbewegungen, Stimme und Hände erfolgen.

Vision Pro
(c) Apple/Screenshot – Apps und Websites werden “in den Raum projiziert”.

Das Gehäuse der Computerbrille ähnelt einer Skibrille mit einer getönten Frontplatte, die die Augen des Trägers umschließt. Sie fungiert als Linse und enthält einen Lüfter, der Luft durch das Headset zieht, um die Elektronik im Inneren zu kühlen, wie Techcrunch beschreibt.

Im Gegensatz zu anderen AR-Headsets ist der Akku der Vision Pro nicht in das Gerät selbst integriert. Ein Kabel, das von der Rückseite des Geräts ausgeht, kann mit einem Akku verbunden werden, der bis zu zwei Stunden Betriebszeit bieten soll. Alternativ kann das Gerät auch an die Steckdose angeschlossen werden.

Keine Verzögerungen am Display

Spezielle IR-Kameras im Inneren der Vision Pro verfolgen die Augen von User:innen, während nach unten gerichtete Kameras an der Außenseite des Gehäuses die Hände erfassen. Eine Gruppe von Lidar-Sensoren erfasst Objekte in der Umgebung in Echtzeit und verfolgt deren Position.

Alle 23 Sensoren – darunter ein Dutzend Kameras, fünf Sensoren und sechs Mikrofone – sind mit dem “R1” verbunden. Einem neuen, von Apple entwickelten Chip, der Verzögerungen eliminieren und Bilder achtmal schneller als ein “Wimpernschlag” auf das Display des Headsets übertragen soll, wie es aus der Marketingabteilung von Apple heißt.

Vision Pro projiziert Augen

Das R1 aktiviert auch das Feature EyeSight, das einen Live-Feed der Augen des Trägers auf das externe Display projiziert. Das hat den Effekt, dass das Headset transparent wirkt und Beobachter von Außen sehen können, wohin die Träger:innen schauen.

Die Software, die die Brille antreibt, ist das erwähnte visionOS, das Apple als “das erste Betriebssystem, das von Grund auf für ‘Spatial Computing’ entwickelt wurde” beschreibt.

Verfügbar wird die Vision Pro frühestens Anfang des nächsten Jahres sein, wie Apple mitteilt. Und 3.499 US-Dollar kosten.

Deine ungelesenen Artikel:
17.12.2024

AnyConcept: Wie ein Grazer Software-Testing-Startup Google verblüffte

AnyConcept aus Graz hat eine Software Testautomatisierungs-Lösung entwickelt und dabei beim Trainieren seiner KI Google auf sich aufmerksam gemacht. Wie genau das Modell funktioniert und was der US-Gigant wollte, erklären die Gründer Leander Zaiser, Manuel Weichselbaum und Markus Hauser.
/artikel/anyconcept-wie-ein-grazer-software-testing-startup-google-verblueffte
17.12.2024

AnyConcept: Wie ein Grazer Software-Testing-Startup Google verblüffte

AnyConcept aus Graz hat eine Software Testautomatisierungs-Lösung entwickelt und dabei beim Trainieren seiner KI Google auf sich aufmerksam gemacht. Wie genau das Modell funktioniert und was der US-Gigant wollte, erklären die Gründer Leander Zaiser, Manuel Weichselbaum und Markus Hauser.
/artikel/anyconcept-wie-ein-grazer-software-testing-startup-google-verblueffte
Anyconcept, AnyConcept, Automatiserung, Software testen,
(c) AnyConcept - Das AnyConcept-Team.

Rund 80 Prozent aller Unternehmen testen ihre Anwendungen und Software händisch. Entweder klicken sie sich mühsam durch ihre Software oder ihren Webshop, um zu sehen, was funktioniert und was nicht, oder sie coden sich ihre Tests. Beides langwierige, kostenintensive und mühsame Aufgaben. Das wissen Leander Zaiser, CEO, Manuel Weichselbaum, CTO, und Markus Hauser, die gemeinsam mit Kevin Intering und Pascal Goldschmied das KI-Startup AnyConcept gegründet haben.

AnyConcept und das Problem der No-code-Software

Die Founder haben sich deswegen dazu entschlossen eine Testautomatisierungs-Software zu entwickeln, um den Prozess für Unternehmen zu vereinfachen und günstiger zu gestalten.

Zaiser war sechs Jahre lang RPA-Experte (Robotics Process Automation) bei Raiffeisen und hat dort Automatisierungssoftware automatisiert. Der CEO musste dabei feststellen, dass vermeintliche No-code-Software ohne Entwicklungskompetenzen sich nicht erfolgreich einsetzen ließ. Für gelernte Softwareentwickler wiederum war das Arbeiten mit solch einer Anwendung keine attraktive Tätigkeit.

Weichselbaum indes forscht seitdem er 17 ist an Künstlicher Intelligenz. Und widmet sich dabei vor allem immer den aktuellen Herausforderungen der internationalen Forschung. Das passte hervorragend zu Zaisers erkanntem Problem: aktuelle Automatisierungssoftware ist zu komplex für Non-Coder und nicht attraktiv genug für Coder. Also fragten sich die Founder: Was, wenn man Automatisierung mit einem No-Code-Ansatz macht, mithilfe einer KI, die genau das tut, was man ihr auf dem Bildschirm zeigt? So war AnyConcept geboren.

Das Black Friday-Problem

“Jede Software, jeder Webshop, jede Applikation muss immer wieder getestet werden, ob sie richtig funktioniert. Und da sie auch ständig durch neue Updates von Entwicklern oder bei einem Webshop mit neuen Produkten gefüttert wird, verändern sich Applikationen dauerhaft. Das kann wieder zum Brechen der bisherigen Funktionen führen”, erklärt Hauser, ein per Eigendefinition fleischgewordenes Startup-Kind, das zuletzt Johannes Braith (Storebox) als rechte Hand begleiten und somit Entrepreneurship aus nächster Nähe beobachten und Mitwirken durfte.

Der Gründer präzisiert sein Argument mit einem Beispiel passend zum Black Friday. Jedes Jahr würden Unternehmen Milliarden US-Dollar verlieren, weil sie ihre Preise falsch definieren oder Prozente und Dollar verwechseln, ohne dass es wem auffällt. Außerdem könnten “Trilliarden US-Dollar” an Schäden durch fehlerhafter Software, die nicht richtig getestet wurde, vermieden und “50 Prozent der IT-Projektkosten” gesenkt werden, wenn Testen automatisiert mit No-Code abläuft, so seine Überzeugung.

“Durch unser KI-Modell, das ein User-Interface rein durch Pixeldaten, Mausklicks und Tastatureingaben erkennen und manövrieren kann, schaffen wir es Automatisierung No-Code zu gestalten”, sagt Hauser. “Das Ziel ist es unsere KI-Agenten zukünftig zum Beispiel einen Prozess wie UI-Software-Testing rein durch eine Demonstration, das bedeutet das Vorzeigen des Testfalles, automatisiert durchführen zu lassen. Sie werden sich dabei exakt so verhalten wie es ein Benutzer tun würde, orientieren sich nur an den Elementen des User-Interface und konzentrieren sich nicht auf den dahinterliegenden Code. Das ist unser USP.”

FUSE for Machine Learning

Dieses Alleinstellungsmerkmal fiel auch Google auf. Konkreter Google Cloud Storage FUSE for Machine Learning. Anfänglich noch ein Open Source-Produkt als “Linux Filesystem in Userspace” oder eben als “FUSE” tituliert, wurde die Software von Google in die Cloud integriert und hilft beim Verwalten von Unmengen von Trainingsdaten, Modellen und Kontrollpunkten, die man zum Trainieren und Bereitstellen von KI-Workloads benötigt.

Anwendungen können hierbei direkt auf die Cloud zugreifen (Anm.: anstatt sie lokal herunterzuladen); als wären sie lokal gespeichert. Es müssten zudem keine benutzerdefinierte Logik implementiert werden und es gebe weniger Leerlaufzeit für wertvolle Ressourcen wie TPUs und GPUs, während die Daten übertragen werden.

FUSE sei einfach ein Produkt für Unternehmen, so Weichselbaum weiter, um große Datenmengen bequem zu verwalten und sie verfügbar zu machen: “Wir verwenden es, um viele Terrabytes von Daten auf der Cloud zu lagern, was am Computer nicht möglich ist”, sagt er.

Google sagt Hallo

Weil AnyConcept das Service von FUSE sehr intensiv nutzte, wurde Google auf die Grazer aufmerksam. Und hat konkret nachgefragt, was sie für einen Use-Case mit ihrem Angebot entwickelt haben. “Wir waren einer der ersten, die das genutzt haben, um effizient unsere KI-Agents zu trainieren“, sagt Weichselbaum. “Das Produkt von Google ist ein Teil unserer Datenverarbeitung und des Trainings unserer ganz spezifischen KI und Google wollte wissen, warum und wie wir das so intensiv verwenden. Das hat dazu geführt, dass wir unsere Ideen für Produktverbesserungen und Skripts mit ihnen teilen durften.“

AnyConcept und seine Konzepte

Das Ziel von AnyConcept ist es, ein Foundation-Modell nicht für Texte oder Bilder, sondern für Interaktionen mit dem User-Interface zu entwickeln.

Im Detail reicht hierbei eine Demonstration von einem solchen Interface und AnyConcept analysiert es mit neuronalen Netzwerken. Es erkennt Strukturen, die das Startup seinem Namen getreu “Konzepte” nennt und die auf breites Wissen aufbauen, wie man mit einem Computer interagiert.

“So ein Konzept wäre etwa ein ‘Button’ auf einer Website”, erklärt es Zaiser in anderen Worten. “Die KI versteht dann, dass man ihn anklicken kann und was danach passiert. Oder wie lange eine Website braucht, sich zu öffnen und wie sie aussieht.”

Aktuell forscht AnyConcept an der Generalisierungsfähigkeit ihres Netzwerkes. Zaiser dazu: “Wir testen unsere KI bereits mit Pilotkunden bei der Anwendung von Software-Testautomatisierung und bekommen großartiges Feedback.”

Toll dass du so interessiert bist!
Hinterlasse uns bitte ein Feedback über den Button am linken Bildschirmrand.
Und klicke hier um die ganze Welt von der brutkasten zu entdecken.

brutkasten Newsletter

Aktuelle Nachrichten zu Startups, den neuesten Innovationen und politischen Entscheidungen zur Digitalisierung direkt in dein Postfach. Wähle aus unserer breiten Palette an Newslettern den passenden für dich.

Montag, Mittwoch und Freitag

AI Summaries

Apple bringt 3.500 Dollar VR/AR-Brille raus – Bilder schneller als ein “Wimpernschlag”

AI Kontextualisierung

Welche gesellschaftspolitischen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Apple bringt 3.500 Dollar VR/AR-Brille raus – Bilder schneller als ein “Wimpernschlag”

AI Kontextualisierung

Welche wirtschaftlichen Auswirkungen hat der Inhalt dieses Artikels?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Apple bringt 3.500 Dollar VR/AR-Brille raus – Bilder schneller als ein “Wimpernschlag”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Innovationsmanager:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Apple bringt 3.500 Dollar VR/AR-Brille raus – Bilder schneller als ein “Wimpernschlag”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Investor:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Apple bringt 3.500 Dollar VR/AR-Brille raus – Bilder schneller als ein “Wimpernschlag”

AI Kontextualisierung

Welche Relevanz hat der Inhalt dieses Artikels für mich als Politiker:in?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Apple bringt 3.500 Dollar VR/AR-Brille raus – Bilder schneller als ein “Wimpernschlag”

AI Kontextualisierung

Was könnte das Bigger Picture von den Inhalten dieses Artikels sein?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Apple bringt 3.500 Dollar VR/AR-Brille raus – Bilder schneller als ein “Wimpernschlag”

AI Kontextualisierung

Wer sind die relevantesten Personen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Apple bringt 3.500 Dollar VR/AR-Brille raus – Bilder schneller als ein “Wimpernschlag”

AI Kontextualisierung

Wer sind die relevantesten Organisationen in diesem Artikel?

Leider hat die AI für diese Frage in diesem Artikel keine Antwort …

Apple bringt 3.500 Dollar VR/AR-Brille raus – Bilder schneller als ein “Wimpernschlag”