Frage zur Gpu Vram und Memory Bus Verhältnis?

3 Antworten

Meistens ist es günstiger die höheren memory speeds zu nehmen. Je breiter die Bus breite ist je mehr Platz auf dem Silizium Chip wird benötigt. Das heißt das jeder einzelne Chip größer sein muss. Und da die Preise pro Wafer nicht Grade günstig ist lohnen sich oft schnellere Speicherchips mehr.

Deshalb sieht man heute eigentlich auch keine 512bit Speicherbus GPUs mehr im consumenten Bereich. Einfach zu teuer.


verreisterNutzer  10.04.2022, 13:11
Deshalb sieht man heute eigentlich auch keine 512bit Speicherbus GPUs mehr im consumenten Bereich. Einfach zu teuer.

Und HBM- Stapelspeicher ( welcher technisch bedingt mehr Datenleitungen braucht ) hat sich bis heute dahingehend auch ( noch ) nicht dort durchgesetzt .

1

Leider verstehe ich deine Frage nicht so ganz.

OB man nun Chips mit 16GBit/s oder 18GBit/s hat erst einmal nichts mit der Breite des Speicherbusses zu tun. Die Breite des Speicherbusses wird von dem Hersteller des Grafikchips festgelegt.

Der Takt der Speichermodule zwar zum größten Teil auch, aber der kann von den Grafikkartenherstellern noch beinflusst werden.

Mit einem 256Bit Bus und 16GBit/s können 512GByte/s übertragen werden

Bei

einem 192 Bit Bus und 18GBit/s können 432GByte/s übertragen werden

Ich finde das ist schon ein Unterschied.

Die Grafikchiphersteller nehmen meist einen schmaleren Bus damit sich die Karten ggf auch mehr von den höheren Karten unterscheiden und damit diese nicht zu schnell werden, sonst gäge es ja für die teureren Modelle auch nicht soviele Kaufanreize.

In Deinem genannten Bandbreitenverhältnis würde sich kein wirklicher Sinn aus einer solchen Frage ergeben , denn bei 25% Verschmalerung des Speicherinterface von 256 auf 192 Bit müßten die verwendeten Speicherchips ihrerseits eine um 25 % höhere Transaktionsrate aufweisen für ein in etwa gleiches Gesamtergebnis .

Dann taucht allerdings technisch auch wieder ein anderes Problem auf , denn die in den Grafikchips integrierten Speichercontroller hängen ihrerseits an sogenannten ROP-Endstufen für Pixelberechnungen , und da hätte jeder ROP auch wieder eine eigene Pipeline-Bandbreitenvorgabe zum Memory-Controller . Teilweise weniger ROPs bedeuten heutzutage dann durchaus noch ggf. nachlassende Gesamtleistung bei zunehmender Auflösung und bestimmten Kantenglättungsmodi .

Ansonsten wäre es natürlich durchaus günstiger für bestimmte Grafikchip-Leistungsklassen , wenn man dort weniger ROPs , Speichercontroller und Datenleitungen zum Speicherinterface realisieren könnte , und auf der anderen Seite dazu dann ggf. gleichzeitig auch auf der anderen Seite weniger Speicherchips mit höherer Einzel - Kapazität und Einzeloperationsleistung einsetzbar wären .

Im Endeffekt kommt es aber auch dabei dann kalkulatorisch auch wieder darauf an , welche Speicherchips ( DDR - Standard ) mit welcher Stückkapazität zu welchem Stückpreis man da überhaupt noch bekommen kann , und wie viele Chips für eine gewisse Mindest-Speichermenge dann eingesetzt werden müssten .

Hier mal ein kleiner Vergleich , wie die Radeon RX 6500XT dabei ( zumindest auf dem Papier ) gegenüber der RX 560-16CU als indirekte Vorgängerin bei der Rationalisierung da steht :

https://hwbench.com/vgas/radeon-rx-6500-xt-vs-radeon-rx-560

Dort fnden sich zwar leider keine konkreten Praxis - Gamingbenchmarks , aber an dieser Karte wird eines konkret klar :

Die Relation zwischen fiktiver Chipleistung ( taktbedingt ) und Memory-Transfer stimmt bei der RX 6500XT leider nicht ( mehr ) , denn neben der Taktrate hat der neuere Grafikchip intern ja auch diverse Effizienzüberarbeitungen seiner Rechenwerke pro Einheit und Mhz erfahren .

Genau DIESE Schelte erhielt die RX 6500-XT damit auch in entsprechenden Praxistests teilweise zu recht , denn der Grafikchip ist dort prinzipiell schon deutlich zu stark für die dort angedachte Bandbreite des Speicher-Interface.

Fazit : Zu viel Geiz an der falschen Stelle ist leider auch nicht gut , aber Dein Grundgedanke in sich wäre richtig gedacht .