{"id":148255,"date":"2023-07-11T16:29:19","date_gmt":"2023-07-11T14:29:19","guid":{"rendered":"https:\/\/www.apfelpage.de\/?p=148255"},"modified":"2023-07-11T16:29:19","modified_gmt":"2023-07-11T14:29:19","slug":"vision-pro-wie-apple-die-prozessorleistung-verdoppeln-konnte","status":"publish","type":"post","link":"https:\/\/www.apfelpage.de\/news\/vision-pro-wie-apple-die-prozessorleistung-verdoppeln-konnte\/","title":{"rendered":"Vision Pro: Wie Apple die Prozessorleistung verdoppeln konnte"},"content":{"rendered":"
Das VR-Erlebnis der Vision Pro wird ma\u00dfgeblich durch den R1-Chip und einen speziell modifizierten Arbeitsspeicher erm\u00f6glicht. Dieser ist auf eine ultraniedrige Reaktionszeit getrimmt, um die Latenz der Videodarstellung m\u00f6glichst klein zu halten.<\/strong><\/p>\n Apples Vision Pro muss eine \u00fcberzeugende Performance bei der Darstellung von AR- und VR-Inhalten demonstrieren, um Nutzer zu \u00fcberzeugen. Um dies zu erreichen, setzt Apple einerseits auf den aktuellen M2-Chip, der die Rechenleistung f\u00fcr die diversen Operationen bereitstellt. Doch um ein fl\u00fcssiges Videoerlebnis hinzubekommen, ist noch eine weitere Komponente zwingend erforderlich.<\/p>\n Apple hat hierf\u00fcr den neuen R1-Chip entwickelt, doch der wird vor allem durch den speziellen Arbeitsspeicher so effektvoll, wie nun aus Berichten<\/a> s\u00fcdkoreanischer Medien hervorgeht, die sich auf Quellen in der Lieferkette st\u00fctzen.<\/p>\n Dem R1 steht ein spezieller DRAM-Arbeitsspeicher zur Seite, der vom Halbleiterfertiger SK hynix beigesteuert wird. Dieser ist auf eine besonders geringe Latenz optimiert. Die Zahl der Ein- und Ausgabe-Leitungen wurde verachtfacht, diese Chips werden auch als <\/b>Low Latency Wide IO bezeichnet. Die Packaging-Methode wurde ebenfalls speziell f\u00fcr die Verheiratung mit dem R1 angepasst, auf diese Weise kann die Prozessverarbeitung der Brille glatt verdoppelt werden, sch\u00e4tzen Experten.<\/p>\n SK hynix, der s\u00fcdkoreanische zweitgr\u00f6\u00dfte Halbleiterfertiger der Welt, ist der einzige Zulieferer f\u00fcr diesen Chip. Dieser verarbeitet eine Menge Daten: Bei ihm landet der Input von 12 Kameras, sechs Mikrofonen und f\u00fcnf Sensoren. Er muss Kopftracking, Augentracking, Handtracking und die 3D-Kartendarstellung der Umgebung erledigen, was er ersten Eindr\u00fccken zufolge offensichtlich trefflich tut.<\/b><\/p>\n","protected":false},"excerpt":{"rendered":" Das VR-Erlebnis der Vision Pro wird ma\u00dfgeblich durch den R1-Chip und einen speziell modifizierten Arbeitsspeicher erm\u00f6glicht. Dieser ist auf eine ultraniedrige Reaktionszeit getrimmt, um die Latenz der Videodarstellung m\u00f6glichst klein zu halten. Apples Vision Pro muss eine \u00fcberzeugende Performance bei der Darstellung von AR- und VR-Inhalten demonstrieren, um Nutzer zu \u00fcberzeugen. Um dies zu erreichen, … Weiterlesen …<\/a><\/p>\n","protected":false},"author":68,"featured_media":147041,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[3],"tags":[9353],"appful":[],"class_list":["post-148255","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-apple","tag-vision-pro"],"jetpack_publicize_connections":[],"yoast_head":"\nViele Sensorinputs m\u00fcssen verarbeitet werden<\/h2>\n