Wird ARM x86 ersetzen?

4 Antworten

Ersetzen eher nicht.

x86 gibt es seit 1978 also seit über 40 Jahren. Das sich die Architektur so lange halten konnte hat einen einfachen Grund, das man bestehende Software weiter ausführen können möchte. Intel und AMD haben jeweils viel Know How und Geld investiert, Prozessoren zu entwickeln, die trotzt der veralteten ISA eine hohe Perfomancen erzielen.

ARM ist dabei nicht mal viel neuer, sondern stammt von 1983. Obwohl ARM technisch besser war, setzte sich x86 im Desktopbereich durch. Das liegt in erster Linie daran, das sich IBM für diese Architektur entschied.

ARM konnte sich vor allem dort durchsetzen, wo es nicht so darauf ankam alte oder fremde Programme laufen lassen zu können. So wird die ARM Architekur vor allem bei Microcontrollern, System on Chips und im mobilen Bereich eingesetzt.

x86 konnte sich demgegenüber mit der Xbox und der PS4 auch im Konsolenmarkt durchsetzen.


aboat 
Beitragsersteller
 15.11.2020, 09:21

Das mit der Xbox und PS4 ist ein interessanter Punkt

0
Von Experte flauski bestätigt

Im Bezug auf Allgemeinleistung ( "Tausendsassa" ) hat ARM / RISC effizienztechnisch schon durchaus die Nase weit vor x86 / CISC .

Bei möglichst multifunktional einsetzbaren Prozessorentechnologien ( CISC ) muss neben der Programmierebene an sich aber auch erst mal eine grundlegend neue Ausführungsarchitektur samt komplex-effizienter Schnittstellenprogrammierung auf Softwareebene entwickelt werden .

Klar geht hoch komplex und variabel auch heute schon auf ARM / RISC , aber da nur optimal auf darauf angepaßter Programmierebene .... und je komplexer , umso mehr Rechendurchläufe über den Zentralprozessor gegenüber komplexerem Pipelining bei CISC .

Die derzeitige CISC - Prozessorentechnologie ist immer noch der "Tausendsassa" für Berechnungen unterschiedlichster Komplexität und allgemeiner Kompatiblität .

So ungefähr wie der berühmte "Unimog" im Fahrzeugwesen . Kann prinzipiell alles , nur halt alles dafür nicht optimal in spezialisierten Aufgaben . Dafür kann er halt ( bislang ) nahezu ( irgendwie ) alles .

Als universell nutzbare Recheneinheit werden die derzeitigen CISC-Prozessoren mit x86 - Basiskompatiblität uns daher durchaus noch Jahre und Jahrzehnte erhalten bleiben .

Für optimierte Spezialaufgaben ist die Sache hingegen schon lange in voller Fahrt an etlichen Fronten von Datenservern bis Tablets , Handys und Home-Office - Books und Multimedia ( Video + Web )

X86 wird nur immer weniger "Quasi-Standard" der Allgemeinverbreitung im Sinne "Mädchen für alles" werden .

Selbst Apple setzt inzwischen schon ( wieder ) auf funktionsoptimierte Eigenentwicklungen . Macht da auch wirklich Sinn , wenn Apple gegen China / Asia durchhalten will mit seiner derzeitigen Produktstrategie .

Schauen wir mal , wie sich Apples M1 da so schlagen wird in deren Portfolio nach Abkehr von Intel und AMD . Muss für Apple ja nicht schlecht sein , wenn sie das "Roundabout" nicht vergessen . Schafft letztlich neben technischen Vorteilen gegen x86 - Compatible aber auch wieder mehr potenzielle Kundenbindung auf Hardwareebene .


flauski  15.11.2020, 04:55

Schön geschrieben. Das vergessen viele, dass unsere CPUs in der Theorie auch Spiele rendern können und es früher taten.

1
verreisterNutzer  15.11.2020, 05:36
@flauski

Ohne Basis-Datenbereitstellung vom Subsystem kann die beste Grafikkarte ihre geforderten Renderdaten nicht bearbeuten .

Mal ganz krass kann eine Intel Celeron Dualcore für Bitchain-Berechnungen wie z.B. "Ethereum" sogar mehrere Geforce RTX 2080 im SLI für Folgeberechnungen füttern , aber in der 3D Rastervorgabe und KI versagt sie je nach Spiel jämmerlich und die GPU verhungert am langen Arm der CPU .

Auf der Anderen Seite können bei anderen Bitchains ( z.B. bei Bitcoin ) hochspezialisierte CPUs effizienztechnisch erheblich mehr Pseudowährung pro eingespeister Wattage generieren an einer Geforce GT 710 , als bei Ethereum mit 4 × Geforce RTX 2080Ti + ( gelangweilter ) Ryzen 9 - 3900X .

Der MS FliSim 2020 kann hingegen locker auch alle Komponenten ( Ryzen 9 - 3900X , RTX 2080Ti , 16 bis 32 GB RAM , Laufwerke und Internet ) zum glühen bringen .

Nun gut , dem MS - FliSi 2020 muß man halt maximale Hardwareauslastung auf allen Ebenen von programmiertechnischer Seite auf x86 - Compatible unterstellen.

Kaum ein Game-Hersteller hat bislang eine derart nutzungsintensive Engine zu bieten in ihrer Skalierbarkeit .

Assassins Creed Valhalla kann da derzeit auf starker Plattform die 4K/60p im Maximum allerdings selbst auf einer Geforce RTX 3090 auch nicht halten . ( mal so für noch ein "Extrem" )

Apple wird sich mit seinen Lösungen auf eigener Plattform da weniger mit x86-compatible PC , sondern eher mit Portable und Console messen wollen . Da dann allerdings vor allem auf Basis von Effizienz , Angebot mit Voreinstellung und Funktion.

Jeder "Apple-Jünger" weiß , dass Apple im Segment der x86-Compatible nur solides , aber funktionales Mittelmaß in der Funktionalität verfügbarer Spiele und Apps bot , und bieten konnte .

Apple M1 wird da außer ggf. effizienztechnisch auch nicht viel anders machen als bislang mit Intel Core-CPU und ggf. AMD Performance-GPU in deren früherer Hardware .

Ich selber hatte zwar noch nie was von Apple , aber man muss diesem Unternehmen seine Plattformstrategie doch irgendwie ähnlich wie "IKEA-Lifestyle" zu gute halten.

0
flauski  15.11.2020, 05:38
@verreisterNutzer

Tut mir Leid, ich seh den Punkt in den Ausführungen nicht. Was willst Du mir damit schreiben?

0
verreisterNutzer  15.11.2020, 06:27
@flauski

Herablassend Deinerseits in Deiner Konversationsanfrage melde ich mich als Underdog da mal raus .

Tut mir leid , ich sehe Deinen Kritik - / und Gegenargumentationspunkt Deiner Kritikausübung da nicht .

0

Fangen wir doch mal mit dem lustigen Teil an, der Name.

ARM steht, wenn man die Matroska voll auflöst, für: "Advanced Reduced Instruction Set Computer Machine"

Und genau diese RISC-Machines sind ja in der PC und Apple-Welt nichts neues. Apples Macintosh-Reihe waren bis zum Wechsel zu Intel(2006?) PowerPCs, also RISC Machines. Und auch IBM hatten bis zu ihrem Ausstieg aus dem Desktopmarkt nur PowerPCs. Für die Nostalgiker sei hier Amiga noch genannt.

Das Risc effizienter ist, ist daher nichts neues. Apple hat nur die Vor- und Nach- Teile neu bewertet. Welche hauptsächlich dadurch minimiert werden, dass man für viele Aufgaben jetzt dedizierte Hardware hat. Für den täglichen Gebrauch kann man dadurch wahrscheinlich für 95% der Nutzerbasis alles abdecken. Aber die eierlegende Wollmilchsau ist ARM nicht. Was ist z.B., wenn Dein dedizierter Renderer den Codec nicht rendern kann? Daher sehe ich da eine spannende Zeit auf uns zukommen.

Und in meinen Augen steht und fällt es mit 2 Faktoren:

  1. Wie gut wird die Hardwarevirtualisierung unter ARM?
  2. Wie gut werden die Ansätze von big.LITTLE in der X86-Welt umgesetzt? Intel hat ja den ersten Schritt mit Alder Lake schon genommen.

verreisterNutzer  15.11.2020, 06:14

Mit "big-Little" ist Intel schon mehrfach gescheitert bei kombinierter Grafikdarstellung .

Die einzige und letzte Steckkarte von Intel war die ( i-740 für Grafik. 🙄 .... hatte ich selber mal , war aber damals auch nicht der beste Wurf für "Budget" )

Das klassische "Tic-Toc" - System kann auch Intel sich schon seit der Core 4000-Serie nicht mehr wirklich leisten. Da sind Fehlentwicklungen wie früher Intel Pentium Pro , Intel Itanium & Co. auch schon lange nicht mehr drin .

Ohne den Port auf APU ( AMD A-Series ) und ein bisserl Restvertrauen in den Ws / & Server - Einstiegsmarkt wäre AMD mit der FX-Reihe ( Bulldozer ) am Desktop-Markt untergegangen. Da wäre selbst Ryzen zu spät für dieses Unternehmen gewesen . ( Siehe 3dfx grafisch , oder Cyrix auf CPU-Seite .... )

Mit der Übernahme von ATI konnte AMD sich da noch gerade mal aus der Schlinge ziehen nach intel Core i - xxx .

Matrox bietet inzwischen nur noch spezielle Verteilerlösungen an .

S3 ist raus aus dem Consumer - Markt .

Intel griff nur auf , was AMD leider lange schon aus dem Auge verlor ... den "Sideback-Cache" für eine potente iGPU. Der OEM-Handel machte AMD's A-Series aber grundlegend schon einen Strich in der Story durch Geiz am falschen Ende .

AMD's Durchbruch sah ich durchaus schon mit der A8 / A10 - 7xxx - Series nach der A8-3850(K) für APU .

Aber was nutzte eine A10-7850K mit lediglich 1 × 8 GB DDR3-1333 der billigsten und lahmsten Timing-Art . 2 × 4 GB DDR3-1866 mit niedrigen Latenzen wären im OEM-Zukauf gerade mal ein paar Euro für bis zu 50% Systemperformance mehr gewesen .

0
flauski  15.11.2020, 06:18
@verreisterNutzer

Auch hier frage ich Dich, wo ist Dein Punkt in Bezug auf meine Ausführungen? Ja, Alder Lake ist nicht die erste asymmetrische Prozessorarchitektur Intels. Aber danach verliert es sich bei mir in Deinen Ausführungen.

0
verreisterNutzer  15.11.2020, 06:19
@flauski

Aber was nutzte eine A10-7850K mit lediglich 1 × 8 GB DDR3-1333 der billigsten und lahmsten Timing-Art . 2 × 4 GB DDR3-1866 mit niedrigen Latenzen wären im OEM-Zukauf gerade mal ein paar Euro für bis zu 50% Systemperformance mehr gewesen .

Was wäre Wohl mit AMD Vega - iGPU , wenn man Notebooks mit Ryzen 4000 dann mit DDR 4 - 4xxx Mhz im Dualchannel-Modus von Grund aus ausgestattet hätte .

Hat man leider aber nicht . Lahm und Singlechannel bei Ryzen 4000 ab Vega 5 immer noch . Ist doch lachhaft in der Gier .

0
flauski  15.11.2020, 06:33
@verreisterNutzer

Das hab ich schon verstanden, ich will Dir da auch nicht widersprechen. Ich verstehe den Kontext zu meiner Ausführung nicht.

0
KarlRanseierIII  15.11.2020, 05:44
Wie gut wird die Hardwarevirtualisierung unter ARM

Warum wird? Also worauf bezieht sich das Futur?

0
KarlRanseierIII  15.11.2020, 05:54
@flauski

Also meintest Du eher, wie sich sich weiterentwickelt. Las sich eher, als gäbe es sie nicht.

0
flauski  15.11.2020, 06:01
@KarlRanseierIII

Ok, ja das hätte ich genauer ausführen können. Aber ich hatte in meiner ersten Fassung der Antwort z.B. 20Zeilen über die Vor- und Nach- Teile von Cisc und Risc und fand das dann bei einer Frage nach der Meinung etwas ausufernd. Daher hab ich mich jetzt versucht sehr kurz zu fassen. Und in dem Fall war es vielleicht zu kurz.

0
KarlRanseierIII  15.11.2020, 06:17
@flauski

Naja, immerhin kann man feststellen, ARM sitzt nicht seit 9 Jahren auf den Händen, mit den einzelnen Reinkarnationen der v8-A (v8.x-A) hat man regelmässig die Virtualisierung aufgebohrt. (VHE, nesting, ...).

Würde die Virt. nicht so wirklich laufen, würde das bei AWS mit Graviton2 auch eher nicht funktionieren - könnte man annehmen.

0
flauski  15.11.2020, 06:23
@KarlRanseierIII

Da möchte ich auf die Frage hinweisen, auf welche sich meine Ausführungen beziehen. Die Frage ist, ob ARM x86 ersetzt. Du nennst mit den Amazon-Serverfarmen einen Bereich, da war RISC nie weg. Sind nicht z.B. knapp 20% der Supercomputer weiterhin von IBM?

0
KarlRanseierIII  15.11.2020, 06:54
@flauski

Klassische Server waren natürlich selten ARMs, RISC allerdings schon, man denke da auch an SGI, Power von IBM sowieso. Bei Supercomputer ohnehin. (x86 konnte sich da aber nen ganzes Stück vom Kuchen erobern)

Das aber inzwischen sowas wie die Altra mit 128 Cores, DDR4, 128 PCIe 4.0 Lanes als ARM daherkommen, übt (IMHO) schon Druck auf einen lange von x86 besetzten Markt aus. Letztlich soll er in direkte Konkurrenz zum Epyc Rome treten - das ist doch eher eine jüngere Entwicklung.

Supercomputer ist sehr gemischt. Aber im Fernen Osten gibts dann auch so Dinger mit Feiteng (Opensparc) als Frontend, 32 000 Xeons (12C) und 48 000 Xeon Phi. Das ist jetzt nicht wirklich RISC, wenn auch Hybrid.

Sunway (irgendwie entfernt nen Alpha), Longsoon (MIPS64) - Ach, die Chinesen lassen sich von jeder totgeglaubten RISC-Arch inspirieren :-P. Auch lustig: Der Longsoon hat HW-gestützte x86 Emulation, macht aber auch ARM-Binärtranslation - wer weiß, was da noch kommt.

Alibabas RISC-V wäre auch eher Servermarkt.

Es ist also schon denkbar, daß wir auch irgendwann MIPS64 o.ä. auf dem Desktop sehen ....

0
flauski  15.11.2020, 06:57
@KarlRanseierIII

Und an der Stelle möchte ich mich selber zitieren:

"Daher sehe ich da eine spannende Zeit auf uns zukommen."

0

Naja, viele Architekturen hatten eine Blüte und sind dann verstorben, teilweise auch wieder auferstanden.

x86 hat sich schon lange gehalten, ob die ISA eine dauerhafte Zukunft hat, muß sich zeigen. Wenn die Wintel-Symbiose aufweicht, dann könnten auch andere ARCHes den Desktop erobern.

Und es gibt ja auch Bereiche, da kann ARM x86 die Stirn bieten.