Neue Infos zur Apple Vision Pro, iOS17 & mehr!
Es gibt neue Informationen zur Apple Vision Pro, iOS 17 und auch noch zu anderen Dingen, die bei der WWDC vorgestellt worden sind. Wenn dich das interessiert, bist du hier genau richtig!
Brillenträger aufgepasst! Neue Optionen für eine klare Sicht mit der Apple Vision Pro
Beginnen wir zuallererst mit der Apple Vision Pro, Apples erstem räumlichen Computer. Apple hat bereits bei der Vorstellung bekannt gegeben, dass es für Brillenträger die Option geben wird, speziell angefertigte Linsen zu nutzen, die magnetisch mit diesem Headset verbunden werden. Mark Gurman sagt dazu, dass jedes Paar dieser Linsen voraussichtlich zwischen 300 und 600€ kosten wird. Das bedeutet, dass die Apple Vision Pro für Brillenträger vermutlich noch einmal deutlich teurer sein wird.
Es gibt jedoch eine Lösung: Felix von Felixba hat in seinem Test die Apple Mitarbeiter gefragt, wie es mit Kontaktlinsen aussieht. Sie haben geantwortet, dass man, wenn man Kontaktlinsen bevorzugt, einfach Kontaktlinsen tragen kann. Das bedeutet, dass zumindest diejenigen, die mit Kontaktlinsen zurechtkommen, auf diese speziellen Linsen verzichten und stattdessen ihre eigenen Kontaktlinsen nutzen können. Das Tragen einer Brille unter diesem Headset wird jedoch wahrscheinlich nicht möglich sein.
Hightech trifft auf Gewichtsfrage - Wie bequem ist die VR-Brille wirklich?
Weiterhin haben die ersten Tests der Apple Vision Pro gezeigt, dass das Gewicht gar nicht mal so gering ist. Mit etwas über 500g liegt es etwa auf einer Linie mit den meisten anderen VR-Headsets. Allerdings hat Apple sich dazu entschlossen, den Akku bereits außerhalb der Brille zu positionieren. Das relativ hohe Gewicht ergibt sich natürlich insbesondere aus der Kombination der Materialien. Apple verbaut hier einfach viel Aluminium und Glas, was am Ende einfach schwer ist. Das sorgt natürlich für eine sehr hochwertige Haptik und Optik, aber die große Frage ist natürlich, wie bequem das über längere Zeit auf dem Kopf ist.
In einer einzigen Szene von Apple hat man gesehen, dass es anscheinend zu dieser VR-Brille noch ein weiteres Band gibt, das man über den Kopf tragen kann. Dadurch wird das Gewicht gleichmäßiger verteilt. Ich bin gespannt, ob dieses Band grundsätzlich mitgeliefert wird oder separat erhältlich ist. Aber zumindest gibt es diese Option. Nichtsdestotrotz waren viele von dem Gewicht dann doch etwas enttäuscht, und es bleibt abzuwarten, wie lange man diese Brille tatsächlich problemlos im Alltag tragen kann.
Extrem hohe Pixeldichte für ein beeindruckend scharfes VR-Erlebnis
Auch haben sich sehr viele Menschen gefragt, mit welcher Bildwiederholrate die Displays im Inneren der Apple Vision Pro arbeiten. Hierzu hat sich Apple nun letztendlich geäußert und gesagt, dass die Brille grundsätzlich mit 90 Hz läuft. Es gibt jedoch Szenarien, in denen die Brille auch eine höhere Bildwiederholfrequenz anzeigen kann. Zum Beispiel, wenn man einen Film mit 24 fps schaut, erhöht sich die Anzeige auf eine Bildwiederholfrequenz von 96 Hz, um den sogenannten Frame-Gitter-Effekt zu reduzieren. Eine Bildwiederholrate von 120 Hz werden wir bei dieser Brille jedoch nicht sehen.
Weiterhin gibt es nun auch die ersten offiziellen Angaben zur Pixeldichte dieser Displays. Und haltet euch fest, denn sie sind wirklich absurd hoch. Die Pixeldichte der beiden Displays liegt jeweils bei 3.400 ppi. Im Vergleich dazu hat das 14" MacBook Pro gerade einmal 254 ppi. Dadurch ist es wirklich eines der schärfsten Displays, die man derzeit in einer VR-Brille finden kann. Trotzdem berichten viele Nutzer, dass es noch nicht auf dem Niveau der Realität ist. Nicht nur, weil man die Realität halt nur abfilmt, sondern auch, weil die Auflösung sogar noch höher sein könnte. Ich finde das absolut faszinierend.
Revolutionäres Bedienkonzept mit intuitiver Gestensteuerung und Eye-Tracking
Ebenfalls besonders faszinierend finde ich, wie Apple das Bedienkonzept bei der Apple Vision Pro für VisionOS gelöst hat. Das Ganze ist einfach nur unheimlich intuitiv, und ich freue mich darauf, es zu testen. Um auszuwählen, wo man persönlich mit der Software interagieren möchte, also wohin man klicken oder scrollen möchte, muss man einfach nur mit seinen Augen hinschauen. Das Eye-Tracking funktioniert hierbei wirklich ausgezeichnet, selbst wenn man auf sehr kleine Elemente schaut, wird es perfekt erkannt.
Dann gibt es verschiedene Handgesten, die man durchführen kann, zum Beispiel ein einfaches Tippen zwischen Zeigefinger und Daumen, um eine Auswahl zu bestätigen. Man kann natürlich auch tippen und halten, um beispielsweise ein Bild in iMessage auszuwählen und an eine andere Stelle zu ziehen. Man kann auch auf einer Website scrollen, indem man eine einfache Bewegung macht, Bilder drehen, indem man zwei Finger benutzt, oder zoomen, wie man es vom iPad kennt. Das bedeutet, dass wir viele intuitive Gesten haben, die einfach durch das Zusammenspiel von Eye-Tracking und Handgesten funktionieren.
Da die Kameras das untere Sichtfeld sehr gut abdecken, ist es auch egal, wo man seine Hände hinhält, solange sie bequem irgendwo auf dem Schoß liegen. Das Headset erkennt das und man kann einfach extrem einfach mit diesem Headset interagieren. Dazu gibt es natürlich auch noch Siri, das heißt, wir können Apps einfach mit Siri starten und Sprachbefehle geben. Auch das ist ziemlich clever gelöst.
Wenn es um Texteingabe geht, gibt es gleich mehrere Möglichkeiten. Man kann Text natürlich einfach einsprechen, quasi wieder über Siri. Oder man hat eine digitale Tastatur, auf der man tippen oder mit den Augen auswählen und dann jeweils bestätigen kann. Alternativ kann man auch eine Maus und Tastatur als Eingabegerät verwenden und diese über Bluetooth verbinden oder direkt seinen eigenen Mac mit der Brille koppeln. In diesem Fall wird das Display vom Mac einfach nur erweitert und es entsteht ein viel größeres Display mit mehreren Anzeigemöglichkeiten. Man kann dann ganz normal die Eingabegeräte des Macs nutzen, also das Trackpad und die Tastatur.
Alles in allem ist das meiner Meinung nach wirklich sehr intuitiv, und ich bin extrem gespannt, wie es sich anfühlt, das wirklich zu nutzen. Ich bin sogar kurz davor, wenn diese Brille dann zuerst in den USA verfügbar ist, einfach mal einen Urlaub dort zu machen, nur um herauszufinden, wie es ist, diese Brille zu tragen.
Revolutionäres Filmbearbeitungserlebnis mit Final Cut auf der VR-Brille
Auch positiv überrascht war ich, als der Filmemacher Matti Haapoja über die Vision Pro sprach und sagte, dass Final Cut von Anfang an auf dieser Brille verfügbar sein wird. Apple hat bereits angedeutet, dass viele iPad-Apps für diese Brille entwickelt werden sollen, und es sieht so aus, als ob Final Cut von Anfang an unterstützt wird. Das bedeutet, dass man die Möglichkeit haben wird, direkt in der virtuellen Umgebung an seinen Videos zu arbeiten. Das kann auf zwei Arten geschehen: Zum einen über die iPad-App direkt auf der Vision Pro. Darüber hinaus kann man aber auch direkt auf dem Mac arbeiten, wobei das Display einfach vergrößert wird. Das heißt, man kann einfachere Projekte direkt auf der Brille schneiden und dann sein MacBook verwenden, um auf der Brille weiterzuarbeiten, jedoch mit der gesamten Rechenleistung des Macs.
Ich glaube, es gibt viele Produzenten, die in Zukunft auf diese Funktion setzen werden, weil man ein viel größeres Display vor sich hat und damit noch besser und intuitiver interagieren kann. Auch hier bin ich extrem gespannt, wie es im Alltag funktioniert, und freue mich darauf, es zu testen.
Safari-Update bringt Datenschutz, aber Content Creator in Gefahr
Kommen wir also zu iOS 17. Hier gibt es eine Funktion in Safari, über die bisher kaum berichtet wurde, die ich aber extrem spannend finde und gleichzeitig auch etwas gefährlich für mich persönlich. Es geht darum, dass beim Browsen mit Safari automatisch Tracking-Parameter von Links entfernt werden sollen. Das bedeutet, dass Werbetreibende dein Verhalten in Safari nicht mehr so gut verfolgen können. Auf der einen Seite ist das natürlich cool, weil du im Netz wieder etwas privater unterwegs bist. Auf der anderen Seite könnte das jedoch in meinem Fall dazu führen, dass zum Beispiel Tracking-Links, die ich persönlich verwende oder die Werbetreibende nutzen, um die Performance meiner Videos zu messen, nicht mehr funktionieren.
Es könnte also nicht mehr möglich sein, über Amazon-Partnerlinks Geld zu verdienen, weil die Tracking-Links automatisch aus den Links entfernt werden und Werbetreibende nicht mehr messen können, wie viele Leute tatsächlich über meinen Artikel auf ihre Webseite gekommen sind und möglicherweise etwas gekauft haben. Das könnte dazu führen, dass viele Content Creator weniger Geld verdienen und weniger Leute Interesse daran haben, Content zu produzieren, da es weniger lukrativ ist.
Ich bin gespannt, wie Apple das am Ende umsetzen wird. Wenn sich diese Funktion auch auf solche Tracking-Links bezieht, wäre das meiner Meinung nach extrem schade, da es für viele von uns, mich eingeschlossen, definitiv zu Einkommenseinbußen führen würde. Hier heißt es jetzt erstmal abwarten.
Etwas erfreulicher ist dann eine neue Funktion, die in die Apple Notizen App Einzug halten soll. Endlich wird es möglich sein, Notizen untereinander zu verlinken. Das bedeutet, dass ich zum Beispiel in einer Notiz auf eine andere Notiz verweisen und einen Link zu ihr setzen kann, um schneller wieder zur anderen Notiz zu gelangen. Diese Funktion gibt es in anderen Notizen-Apps schon länger und Apple übernimmt sie nun endlich auch für die eigene Notizen App.
Überdimensioniertes Netzteil und fehlendes Pro Display XDR...
Kommen wir auch noch kurz zum Mac Pro. Apple verbaut im Mac Pro dasselbe 1400-Watt-Netzteil wie im 28-Core Xeon Intel Mac Pro, der zwei massive W6800X Duo MPX-Grafikmodule unterstützt. Obwohl der M2 Ultra nur maximal 300 Watt verbraucht und externe Grafikkarten nicht mehr unterstützt werden, frage ich mich wirklich, wofür Apple am Ende ein so massives Netzteil verbaut, wenn eigentlich bei weitem nicht so viel Leistung benötigt wird.
Was ich insbesondere auch extrem witzig an dieser Stelle fand: Apple hat zur WWDC mehr Zeit damit verbracht, über tvOS zu sprechen, als über den Mac Pro. Das finde ich schon irgendwie merkwürdig und zeigt, dass der Mac Pro bei weitem nicht mehr so einen hohen Stellenwert hat wie zuvor, auch weil er letztendlich den gleichen Prozessor hat wie der Mac Studio. Was ich jetzt im Nachhinein noch festgestellt habe: Wo ist eigentlich das neue Pro Display XDR? Dazu hat Apple gar nichts gesagt. Es sollte eigentlich auch vorgestellt werden. Nun ja, anscheinend gibt es das nach wie vor nicht und wir müssen nach wie vor das alte Pro Display XDR kaufen, wenn wir es möchten. Das ist mittlerweile technisch gesehen einfach nicht mehr auf dem aktuellen Stand, was ich ein bisschen schade finde.
Windows-Spiele auf dem Mac - Die Gaming-Welt erobert macOS!
Bleiben wir noch kurz bei den Macs und sprechen wir über das Game Porting Toolkit, das Apple ebenfalls vorgestellt hat. Dieses Toolkit soll es Windows-Spieleentwicklern einfacher machen, ihre Spiele auch für Mac verfügbar zu machen. Das Tool soll wirklich gut funktionieren und es soll sehr einfach sein, Spiele so anzupassen, dass sie ohne viel weitere Arbeit auf macOS laufen. Zudem verspricht Apple eine sehr gute Performance. Ich bin ziemlich sicher, dass wir in Zukunft viele Spiele, die bisher nur für Windows verfügbar waren, auch für macOS sehen werden. Dank der Grafikleistung der Apple-Chips können wir diese Spiele auch in hoher Auflösung und mit hoher FPS spielen.
Adaptive Audio-Modus für individuellen Klanggenuss!
Apple hat ein neues Feature für die AirPods Pro vorgestellt: den adaptiven Audio-Modus. Mit diesem Modus erkennen die Kopfhörer automatisch, ob du den Transparenzmodus oder die aktive Geräuschunterdrückung benötigst. Das Feature wird jedoch leider nur für die AirPods Pro verfügbar sein und nicht für die AirPods Max. Das finde ich persönlich etwas schade.
Den ganzen Artikel findest du auch als Video auf Youtube: https://www.youtube.com/watch?v=K8l2NBagl-k&t
Hinterlassen Sie einen Kommentar