Wieso müssen Prozessoren immer kleiner werden . In den riesigen Desktops und auch Notebooks können wir doch größere mit immer kleineren Strukturen einbauen?

3 Antworten

Daß die Chips physisch kleiner werden stimmt nicht grundsätzlich.

Prozessoren (integrierte Schaltungen allgemein) werden nicht nur deshalb immer weiter verkleinert (dichter gepackt), weil man die Kapazität erhöhen möchte, sondern auch, weil die Signallaufzeiten bei kürzeren Verbindungen kleiner werden, das Bauteil also schneller wird.

Um noch viel höher zu miniaturisieren, könnte man auf die Idee kommen sehr viele Chips übereinander zu stapeln und in ein einziges Gehäuse zu gießen. Da die eigentlichen Chips sehr dünn sind wäre so ein Bauteil nicht zwingend dicker.

Gegen extreme Packungsdichten auf deutlich größeren Chip spricht etwas ganz anderes: in elektrischen Schaltkreisen wird nämlich Wärme umgesetzt. Wenn man die Schaltungen zu dicht und in zu große Strukturen packt, dann bekommt man Probleme mit der Kühlung.

Was nützt dir eine 5 GHz, 32-Core-CPU, die alle paar Millisekunden die Leistung reduziert, weil sie zu heiß wird !?

Die Prozessoren an sich werden eigentlich garnicht kleiner, wenn man z.B. mal die Grösse des "Packages" ( die Trägerplatine ) und des "Dies" ( dem eigentlichen CPU-Kern ) miteinander vergleicht. So unterscheiden sich in dieser Hinsicht z.B ein alter Pentium 200 MMX und ein aktueller Pentium G 4400 hier äusserlich ( bis auf die Anzahl der elektrischen Kontaktpunkte ) hier kaum voneinander in den jeweiligen Abmessungen.

Das hat in Hinsicht auf Deine Fragestellung aber auch schon mal 3 zwingende Gründe :

 - Physikalisch betrachtet ist die maximale Grösse eines einzelnen "Dies" theoretisch auf die Grösse von etwa max. 100.000 - 125.000 mm2 technisch begrenzt, da die sogenannten "Silizium-Wafer" ( das hoch reine Silizium-Substrat , aus dem die einzelnen "Dies" herausgeätzt werden ) auf einen Durchmesser von max. 200 mm begrenzt.

 - Technisch betrachtet lässt sich auf einer Fläche von etwa 100.000 mm2 mit etlichen bis 100.ten  Milliarden einzelnen Transistoren eine gewisse Fehlerquote nie vermeiden. Ein einzelner Chip mit z.B. 10.000 mm2 ( 100 mm x 100 mm ) wäre also technisch niemals funktional umsetzbar. Deswegen "segmentiert" man die nutzbare Fläche von etwa 100.000 mm2 in z.B 500 einzelne Sektoren, womit sich pro Wafer dann z.B. 500 Chips mit je 200 mm2 Fläche herstellen lassen, und anschliessend nur die fehlerhaften Einzelchips aussortierbar sind. So bleiben pro Wafer z.B. von 500 Chips 400 zur weiteren Verwertung.

 - Wirtschaftlich betrachtet ist bei einer max. Chipfläche aus o.g. Gründen bei etwa 600 - 650 mm2 ( erreicht bei aktuellen Grafikkarten der Spitzenklasse ) Schluss, weil jeder mm2 der Waferfläche auch Geld bedeutet. Zudem steigt mit jedem mm2 der Fläche eines einzelnen Chips auch dessen Ausfall- / Defektrisiko während der Hersteller und somit steigt die ( teure ) Ausschussquote. Je grösser der einzelne Chip, umso teurer wird er daher auch pro mm2. Daher ist bei etwa 500 - 600 mm2 hier insgesamt Schluss.

Für eine deutliche Erhöhung der Anzahl der Transistoren pro mm2 bleibt also nur der Weg der Verkleinerung der Fertigungsstrukturen. Ein Shrink der Fertigungsstrukturen um den Faktor 10 erlaubt theoretisch daher 100 x mehr Transistoren pro mm2 ohne den gesamten Chip vergrössern zu müssen.

So wurden z.B. die letzten Pentium MMX noch in einer Strukturbreite 250 nm gefertigt, während ein moderner Pentium G 4400 in deutlich feineren 14 nm gefertigt wird. Das entspricht theoretisch einer Steigerung der Flächen-Packdichte an Transistoren gerundet um Faktor 315. ( ~ 17,85 × 17,85 ).

Weitere interessante und positive Auswirkungen des "Shrinkings" ergeben sich durch eine dadurch reduzierbare Quote von "Leckströmen" ( unerwünschte Kriechströme zwischen den einzelnen Leiterbestandteilen ) bei gleichzeitiger Absenkung der nötigen CPU-Betriebsspannungen und zudem deutlich erhöhter Taktfähigkeit und Stabilität bei guter Effizienz. Mit 3300 Mhz taktet bereits die Pentium G 4400 hier ab Werk auch schon um den Faktor 16,5 höher als die Pentium 200 MMX. Und das bei vergleichbarer Leistungsaufnahme dieser CPUs. 

Obwohl die Pentium G4400 dabei im Vergleich zur Pentium 200 MMX sogar noch ein kleineres " Die " besitzt, so befinden sich in derem Substrat aber dennoch 2 ( ( zudem deutlich komplexere ) Kerne mit einer integrierten Grafiklösung und um den groben Faktor 100 grössere Caches. Und das grob zu etwa 1/4 bis 1 / 5 des Preises. ( die Pentium 200 MMX kostete zu ihrer Zeit auch mal etwa 400 - 500 D-Mark, was heute in etwa dem Preisniveau der Core i5-Serie entspricht )

Somit ist "Shrinking" also das Ergebnis einer Abwägung aus physikalisch- / technischen Interessen in Verbindung mit Wirtschaftlichkeit und Marktansatz bei angemessener Leistungs- / und Effizienzsteigerung in Anforderung des technischen Zeitwandels.

Deine Frage beinhaltet schon einen Fehler.
Prozessoren wurden nicht kleiner, die Fertigungsgröße wurde kleiner.
Das heisst es wurden mehr und mehr Transistoren und ähnliche Elemente in der selben "die" größe untergebracht.

Das hört auch absehrbar nicht auf, man muss nur hin und wieder den Halbleiter wechseln weil das Verfahren nur bis zu einer gewissen physikalischen Größe funktioniert.

Der nächste große Schritt werden vielleicht 3d Carbon-Nanoröhren Chips sein.
Auf normaler Halbleiterbasis werden wir vielleicht vorher noch optische Übertraung und ebenfalls 3d-schichten erleben bis die Technik ausstribt.