Home » Featured » Kommentar: Eine 13 Jahre alte Fehlentscheidung zeigt ihre Konsequenzen

Kommentar: Eine 13 Jahre alte Fehlentscheidung zeigt ihre Konsequenzen

iMac (2017)

Man nenne mich einen Fanboy, aber wenigstens was Hardware-Entscheidungen angeht, finde ich immer wieder Gründe, die mich denken lassen, Apple wisse, was es tut. Es gibt jedoch einen Fehler, der vor vor 13 Jahren gemacht wurde, und heute (zum wiederholten Mal) seine Auswirkungen präsentiert. Die Rede ist von Macs. Und Intel. Und warum Apple nicht einfach ein halbes Jahr gewartet hat.

It’s true!

Die Älteren werden sich erinnern. WWDC 2005. Steve Jobs steht auf der Bühne, kündigt allerlei Zeug an und hat eines seiner berühmten „One more thing“s. Ich kann euch nicht mehr aus dem Kopf sagen, was alles angekündigt wurde. Vermutlich irgendwas mit iLife und iPhoto und wie sie alle heißen. Die Präsentationen fanden aber allesamt auf einem „Power Mac“ statt – der ein kleines Geheimnis in sich trug. Es war nämlich ein Pentium 4. Das „One more thing“ war die Ankündigung, dass Macs künftig mit Intel-Prozessoren laufen werden. Toll. Schneller. Performance pro Watt. Weniger Leistungsaufnahme. Längere Akkulaufzeit. Die Argumente sprechen für sich. Und es sollte auch gar nicht lange dauern, bis die ersten Intel-Macs auf den Markt kamen. Sie kamen beinahe geschlossen mit dem dem Core Duo, bis auf den Mac Mini, der den Core Solo erhalten hat. Und das wird sich nochmal rächen.

https://www.youtube.com/watch?v=B6iF6yTiNlw

Warum, Apple, warum?

Es ist nämlich folgendermaßen. Der PowerPC G5 unterstützte bereits 64-Bit-Register. Es war eine 64-Bit-CPU. Intel hatte zu der Zeit auch eine – Itanium. Außer in ein paar Servern stieß die mit x86 inkompatible Architektur aber auf wenig Gegenliebe. AMD ging einen anderen Weg und hat die X86-CPU auf 64 Bit erweitert, Intel hat das Ganze dann lizenziert.

Allerdings hielten die AMD64-Erweiterungen, oder wie sie bei Intel heißen x86-64, erst mit dem Core 2 Duo Einzug – Core Duo (und Core Solo) basierten zwar schon auf der Core-Architektur, waren aber noch reine 32-Bit-Prozessoren. Ironischerweise standen die neueren Prozessoren schon auf der Matte. Beispiel iMac: Der erste Intel-iMac kam im Januar 2006 auf den Markt, sein erstes Upgrade im September. Es ist also nur gut ein halbes Jahr vergangen, bis 64-Bit-Prozessoren in Macs auftauchten. Und das ist unglücklich.

Mac OS X 10.7 Lion

Wirtschaftlich spielt das keine allzu große Rolle. Als die ersten Intel-Macs auf den Markt kamen, war Mac OS X 10.4 Tiger aktuell. 10.5 Leopard kam sogar noch für PowerPC-Prozessoren heraus. Und Mac OS X 10.6 Snow Leopard, Ende 2009, lief auf „allen Intel-Macs“. Da Lion erst 2011 kam, sind das über fünf Jahre Software-Support (und Snow Leopard hat auch noch eine Weile Updates erhalten) – das ist von der Sache her ok. Zumal die Limitierung von Lion auf 64-Bit-Prozessoren auch nur eine künstliche war, wie Hacks kurz nach Veröffentlichung bewiesen haben. Und doch war im Sommer 2011 erstmals die Frage erlaubt, warum sich Apple das überhaupt angetan hat und nicht einfach auf den Core 2 Duo gewartet hat.

Eine blöde Situation

Da Mac OS X 10.5 Leopard das letzte Betriebssystem für PowerPC-Macs war, hat es Apple ungewöhnlich lange mit Updates versorgt. Gleichzeitig wurden Entwickler dazu aufgerufen, nach Möglichkeit Universal-Apps zu entwickeln. Das ging in Xcode wohl relativ einfach – hier und da eine Anpassung, Build-Target PPC und X86, zack-feddich, Universal-App. Intel- und PPC-Macs können den Code nativ ausführen, super. Für alle Fälle enthielten Mac OS X 10.4 Tiger, 10.5 Leopard und 10.6 Snow Leopard Rosetta – eine Software, die PPC-Befehle in X86-Befehle umwandelt, damit noch nicht angepasste Programme laufen. Und das war dringend notwendig, denn gerade die großen, z.B. Adobe und Microsoft, haben sich viel Zeit mit der Portierung gelassen. Einmal mehr: Hätte man doch nur das halbe Jahr gewartet und 64 Bit gleich zum Standard erklärt.

Es werde 2018

Nun gut, man will ja nicht zu viel nörgeln, ab Lion war Rosetta passé, ergo läuft, was in Lion lief, auch heute noch. Und da gibt es das eine oder andere Programm, das mit Stand 2012 „gut genug“ ist – es gibt keine Updates mehr, es ist fertig, den Entwickler hat man auch schon lange nicht mehr gesehen, ist ja auch egal.

macOS High Sierra

macOS High Sierra

Nein, ist nicht egal, denn auf der WWDC 2017 kündigte Apple an, dass High Sierra die letzte Version sein wird, die „ohne Kompromisse“ 32-Bit-Programme ausführen kann. Seit dieser Woche ist das für den Nutzer auch sichtbar. Das bedeutet, dass abermals das große Aussieben losgehen wird, das zuletzt in Lion stattfand, nur dass es heuer mithin noch mehr Programme betreffen könnte, da die Anzahl der aktiven Macs seit dem Umstieg auf Intel-Prozessoren massiv gewachsen ist – und wer sich einmal auf dem Mac wohlfühlt, der wechselt so schnell nicht mehr zurück.

Alte Zöpfe abschneiden ist gut…

Versteht mich bitte nicht falsch – ich bin ja dafür, dass man sich hin und wieder auch mal von alten Sachen trennt. Es ist zwar technisch nicht korrekt, dass eine 32-Bit-Anwendung unbedingt langsamer ist als eine 64-Bit-Anwendung (ich denke eher, Apple will die 32-Bit-Bibliotheken nicht mehr parallel unterstützen), aber dennoch ist ein aufgeräumteres System besser als ein „zugemülltes“ – und diesbezüglich hat Apple noch große Aufgaben vor sich.

Was ich aber kritisieren möchte, ist, dass Apple damals, ich möchte fast sagen überhastet, auf Intel umgestiegen ist. Man hätte sich gleich zwei große Aussiebungen ersparen können, hätte man die ersten Intel-Macs einfach ein halbes Jahr später auf den Markt gebracht. Und das hätte dann auch mehr nach Apple ausgesehen, die Dinge gerne mal auf die harte Tour anfassen, weil das langfristig sinnvoller ist (Abschaffung Diskettenlaufwerk und DVD-Laufwerk, USB-C und so weiter).

Warum eigentlich?

Interessant ist an der Frage noch das „Warum überhaupt?“. Ja, warum denn nun? Wenn ihr mich fragt, bestätigt das meine These von Sommer 2017. Apple verplappert sich selbst. Es gibt schon sehr lange Gerüchte darüber, dass Macs künftig mit ARM-Prozessoren (bekannt aus iPhone und iPad) betrieben werden, zuletzt flammten sie erneut auf. Und während ich das selbst noch nicht so wirklich glaube (wir können über den iMac-Pro-Weg reden, bei dem ein ARM-System die sichere Umgebung macht – vielleicht auch, dass der ARM-Prozessor das Betriebssystem unterhält, während der Intel-Prozessor arbeitet – aber dass nur ein ARM-Chip drinsteckt, kann ich mir nicht vorstellen), will ich es zumindest nicht ausschließen. Apple bräuchte aber die Möglichkeit, Intel-Code laufen zu lassen, damit der Übergang wieder so schön sanft stattfindet. Und da ist nur eine Architektur zu unterstützen, wesentlich günstiger als gleich zwei übersetzen zu müssen.

Falls es so kommt – erinnert euch bitte daran, wo ihr es zuerst gehört habt

Euer Toni

-----
Willst du keine News mehr verpassen? Dann folge uns auf Twitter oder werde Fan auf Facebook. Du kannst natürlich in Ergänzung unsere iPhone und iPad-App mit Push-Benachrichtigungen hier kostenlos laden.

Gefällt Dir der Artikel?

 
 
Toni Ebert
twitter Google app.net mail

10 Kommentare zu dem Artikel "Kommentar: Eine 13 Jahre alte Fehlentscheidung zeigt ihre Konsequenzen"

  1. Dave 14. April 2018 um 14:41 Uhr ·
    Wunder barer Artikel – oder ist es eher ein Kommentar? Wie auch immer. Recht hat er!
    iLike 24
  2. Lukas K. 14. April 2018 um 15:01 Uhr ·
    Ist doch cool wenn alles mit Apple Prozessoren läuft, aber es kommt dann natürlich auf den Support an nä?!
    iLike 0
  3. Dady 14. April 2018 um 15:38 Uhr ·
    Das hätten die schon damals gemacht, nur hatten sie, als sie von Powerpc Prozessoren weg zu Intel sind, noch keine ARM CPUs die sie selbst und komplett eigenständig entwickelt haben. Das hab sie ja mittlerweile und sind nur noch auf Fertigungsunternehmen angewiesen. Der Weg wird klar dorthin gehen… bin gespannt.
    iLike 3
  4. Wolfgang D. 14. April 2018 um 17:46 Uhr ·
    @Dady Und von den PPC Prozessoren sind sie weg, weil die Performance immer mehr dem i86 hinterherhinkte. Dann hat neuzeitlich Huawei beim Kirin vorgemacht, dass man auch einfach ein Referenzdesign einkaufen und selber weiterentwickeln kann. Und Apple hat sich gedacht, cool, dann müssen wir nicht mehr so viel Geld an Intel abdrücken. Das machen wir auch. Die Leistung der SOC ist mittlerweile doch super. Insofern kann ich beim Kommentar-Artikel nicht ganz nachvollziehen, wo Apple seinerzeit einen Fehler gemacht haben soll. Die 64bit Architektur war am Markt zu der Zeit noch gar nicht sichtbar.
    iLike 1
    • Toni Ebert 14. April 2018 um 18:12 Uhr ·
      AMD hat erste X86-64-Prozessoren 2003 auf den Markt gebracht, ab 2004 mit dem Athlon 64 für Consumers. Die ersten Core 2 Duo für Laptops (die Apple bekanntermaßen auch in Desktops einsetzt) kamen im Juli 2006 auf den Markt: https://en.wikipedia.org/wiki/List_of_Intel_Core_2_microprocessors#%22Merom%22,_%22Merom-2M%22_(standard-voltage,_65_nm) Dass man für die Unterstützung von 32- und 64-Bit die Libraries in beiden Versionen braucht, hat man bei Linux und Windows gesehen, insofern wusste das auch Apple. Intel hat großes Tam-Tam (auch auf der Keynote) ob des Wechsels gemacht; wenn Apple und Intel so eng zusammenarbeiten, dann dürfte auch mal die Roadmap auf den Tisch gelegt worden sein, auf der die C2D aufgetaucht wären. Auch wenn 64 Bit keine unmittelbaren Vorteile gehabt hätte, Apple hätte auch damals schon wissen können, dass es durch diesen Kompromiss früher oder später im System Kartellleichen geben wird, die man aufräumen müssen wird. Und das ist, was jetzt passiert. Intel 64 gab es darüber hinaus auch schon ab 2004 beim Pentium 4, das war also auch schon auf dem Markt: https://en.wikipedia.org/wiki/List_of_Intel_Pentium_4_microprocessors#Prescott_(90_nm)_2 Insofern – man hätte es sich denken können. Hinter verschlossenen Türen wurde das alles jedenfalls nicht (mehr) entwickelt.
      iLike 3
      • Wolfgang D. 14. April 2018 um 19:14 Uhr ·
        @Toni Ebert Da hab ich ganz andere Erinnerungen… IA64, und wie die ganzen Plattformen im Profibereich hiessen, hat im Verbraucherbereich nie jemanden interessiert, erst mit den Athlon 64, C2D Centrino und Vista gab es bei den OS was Relevantes im bezahlbaren Bereich. Das war um 2006/7/8, oder? Win XP64 hat kein Schwein interessiert, und Apple hätte da allein bei den Treibern unnütz Geld verbrannt – das sie zu der Zeit nicht hatten.
        iLike 1
      • Toni Ebert 14. April 2018 um 19:49 Uhr ·
        @Wolfgang D. Bezüglich Consumer – ja, da ging es erst mit Vista los. Aber Apples Anspruch war ja (damals) nicht, was schon etabliert ist, sondern was sich etablieren wird. Dass der iMac kein Diskettenlaufwerk hatte, war seinerzeit etwas, das man sich auf dem PC-Markt nicht getraut hat. Als das DVD-Laufwerk entfunden wurde, passierte dasselbe. Heute völlig normal. Die Hardware dazu gab es schon und mit Linux auf dem Server auch eine relevante Anwendung. IA64 ist der Itanium, der hat tatsächlich, von ein paar Mainframes abgesehen, keinen groß interessiert. Athlon 64 kam 2003 auf den Markt. Der P4 mit Intel64 kam 2004. Es war also alles zum Zeitpunkt der Ankündigung schon auf dem Markt. Centrino ist dabei nebenbei bemerkt nur die Kombination aus Intel-CPU, Intel-Chipsatz und Intel-WLAN-Chip samt Software – das ist etwas, das streng genommen auf Macs niemals zugetroffen hat (und war auch nicht auf Core-Prozessoren beschränkt). Warum hätte Apple Geld verbrannt? 64-Bit-CPUs können doch auch 32-Bit-Code ausführen – Windows XP mit BootCamp war anfangs noch gar kein Thema, davon abgesehen hätten sich die Treiber ohnehin in Grenzen gehalten, da nicht viele Chips von Apple waren, sondern die meisten von Intel (Chipsatz und Grafik), vielleicht ATI/NVidia (Grafik), Realtek (Sound) und Atheros (WLAN/Bluetooth). Diese Treiber sind auch heute noch „Off-the-shelf“, also vom Hersteller der Chips, auf dem Treiber-Image von BootCamp. Für macOS hätte Apple ebenfalls kein Geld verbrannt für die Treiber-Entwicklung – weil es keine wesentliche Rolle spielt, ob man für 32- oder 64 Bit entwickelt. Im Gegenteil: Dadurch, dass man mit Core Duo und 32 Bit auf Intel gewechselt ist, musste man sogar drei Treiber anbieten – PPC/x86/x86-64. Das ist ineffizient. Wie gesagt, da Apple aber sowohl die Hardware als auch die Software vorgibt, hätte man warten können, auf den C2D, und dann wären alle Intel-Macs von Tag 1 an 64 Bit gewesen, dann hätte man die mit Lion noch unterstützen können (und darüber hinaus) und die 32-Bit-Warnung hätten wir dann auch nicht. Weil es keine 32-Bit-Intel-Programme gegeben hätte. Wofür auch.
        iLike 5
  5. Christian B 14. April 2018 um 20:02 Uhr ·
    Sehr schön geschrieben.
    iLike 3
  6. martin0662 15. April 2018 um 15:07 Uhr ·
    Was soll man sagen, Microsoft habt diesen Schritt zu ARM schon 2 mal gemacht uns zurückgezogene. Jetzt versuchen sie es ein drittes mal. Dies würde unter umständen bedeuten das für MS Anhänger das Arm System auch auf dem MAC läuft, sowie die wichtigsten Anwendungen
    iLike 0
  7. TheChosen 20. April 2018 um 20:00 Uhr ·
    Irgendwie lustig dass Apple jetzt wieder von Intel-Chips wegmöchte. Denn der Status Quo ist- dass die PowerPC-Architektur, seit dem Jahre 2006 um den Faktor 15 schneller geworden ist. Wie sieht´s denn da bei Intel/AMD aus? Sind die auch 15x schneller geworden in den letzten 10 Jahren? Ooooh waiit…nein. Sind sie nicht. Mit gut Glück erreicht man eine 3x schnellere Geschwindigkeit in den letzten 10 Jahren xD Während Amd/Intel sich gegenseitig die Köppe einschlagen wer pro Jahr die 10%-Leistungskrone erreicht, wird an PowerPCs- einem stark verbesserten G3-Modell um genau zu sein- weiterhin geforscht. Diese Chip-Architektur kann man nämlich- ohne größeren Aufwand- nochmal um den Faktor 10 verschnellern. Dazu benötigt man allerdings einen größeren eDRAM-Cache. Sowie eine höhere Bandbreite. Schrumpfen darf man die Transistoren allerdings nicht mehr, weil sonst der gleiche Schmarrn wie bei AMD/Intel passiert und die Überhitzung zu ungewollten Quanteneffekten führt xD Das heißt dass einfach nichts mehr läuft, weil der Chip „Ungewolltes Verhalten“ aufweist. Ein PowerPC-Chip jedoch verhält sich immer genau so, wie man es erwartet. Da gibts kein 500-seitiges Handbuch, weils keine 5 Millionen Instruktionen gibt. Da gibts auch keine fehlerhaften Instruktionen. Der Code läuft immer genauso durch, wie es vom Chip vorgesehen ist und wie man es auch erwartet. Es sind immer noch die selben Instruktionen seit 2003 drinnen. Allerdings ist der ganze Chip- also die Architektur- einfach mal eben um 1500% schneller geworden. Wegen erheblich schnellerem Interface. Schnellerer Cache. Deutlich mehr Cache und anderen Anpassungen. Und dennoch bleibt der alte Code 100% kompatibel zum neuen bzw. derzeitigen Chip.
    iLike 0

Leider kann man keine Kommentare zu diesem Beitrag mehr schreiben.