Arbeitsspeicher: CL vs MHz?

3 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Deine theoretischen Gedanken gehen durchaus schon in die passende Richtung , denn DDR4 vs. DDR3 profitiert hauptsächlich von theoretisch höheren Bandbreiten durch höhere Interface- / und Speicherzellen - Taktung nebst ein par anderer physikalischer Details im Bezug auf Speicherzellenaufbau und Speicherdichte pro Speicherchip im Stack und der Signalqualität .

DDR4 macht von dieser Seite daher erst dann Sinn , wenn das Verhältnis aus Latenz und Taktung im Interface-Transfer insgesamt die Spezifikationen von DDR3 übersteigt .

für weitere Erklärungen muss ich aber erst mal zu Wikipedia ( insbesondere der Spezifikationstabellen ) verlinken :

https://de.m.wikipedia.org/wiki/DDR-SDRAM

Demnach wäre ein DDR3 - 1600 mit CL 9-9-9-24 prinzipiell erst mal nicht langsamer als ein fiktiver DDR4-3200 CL 18-18-18-48 , aber theoretisch könnte der 3200-er am Interface im Burst dann ( optimal ) nahezu die doppelte Datenmenge pro Sekunde übertragen .

Jetzt fragst Du Dich gewiss , wo dann der Sinn von DDR4 lag .... Es lag an der Entwicklung der Speichercontroller in sich mit zunehmenden Interface-Taktraten samt I/O und der Speicherzellenansteuerungstaktrate .

Nehmen wir da mal die AMD A10-7870K ( FM2+ & DDR3 ) vs. A12-9800(K) an AM4 mit DDR4 . Technisch bis auf die etwas effizienteren CPU - Kerne ( Steamroller vs. Excavator ) eigentlich alter Wein in neuen Schläuchen auf einem neuen Sockel .

Nur wurde es mit den Memory-Transferraten > 1866 bis 2133 Mhz DDR3 auf der alten FM2+ - Plattform bereits ( erheblich ) zunehmend schwierig mit der Systemstabilität mit den Taktraten im Interface zwischen RAM und den Rechenwerken im Memory-Controlling .

Die A12-9800(K) arbeitete meist aus dem Stand heraus mit DDR4 - 2133 bis 2400 , während das bei der A10-7870K bereits > 1866 im Dualchannel-Modus zunehmend schwierig wurde .

Der eigentlichen "Bulldozer-Technik" im CPU-Bereich selbst brachte RAM - OC ohne Teilungszwang mit integrierten Grafikkernen ansonsten kaum etwas ohne gesamtheitlichem OC sämtlicher Prozessor - Arbeitsdomänen bei Core und Uncore / Nortbridge - Bereichen . ( diese liefen auf dieser Technologie nicht 1:1 wie seinerzeit inzwischen bei Intel )

Selbst bei Ryzen 1000 / 2000 ( und teils bis Ryzen 3000 ) hatte AMD teils noch verschiedene Taktdomänen ( insbesondere im CCX / Infinity Fabric - Managgement ) mit starker Abhängigkeit zum RAM - Takt ( DDR ) gegenüber Intels "Monolith-" plus "Ringbus" -Strukturen im Prozessor .

Rein über Deine berechneten Latenzen der beiden DDR-Standards kommt ansonsten in den meisten Fällen ohne Ressourcensharing zwischen CPU & iGPU-Cores beim Anwender abseits synthetischer Benchmarls meist kaum etwas an bei derart naheliegenden DDR - Taktfrequenzen von rechnerisch < 10 % Latenzabweichung .

Ja , es ist jeweils für sich alleine betrachtet daher durchaus komplizierter , als auf den ersten Blick ersichtlich im Zusammenspiel aller Komponenten .

GuteAntwort2021 
Fragesteller
 03.09.2022, 00:53

Danke für deine hilfreiche Antwort.

.............................................

Interessante Bilder dazu:

https://pics.computerbase.de/9/2/2/9/0/3-1280.28fe57ea.png

https://pics.computerbase.de/9/2/2/9/0/2-1080.e15eb6f4.png

Allerdings stellt sich dadurch die Frage, ob sich überhaupt noch ein Kit aus Beispielsweise 2x16GB lohnt, anstatt von 1x32GB. War fehlendes "Same Bank refresh" nicht der Grund, warum man auf ein Kit zurückgegriffen und es im Dual Mode betrieben hat?

Aber ich habe gerade gesehen, dass es auch schon CLs von 32 bei 6000 MHz gibt. Die sind zwar gerade noch absurd teuer (400€) aber wenn die mal preislich in den Bereich von 150-200€ kommen, gibt es keinen Grund mehr für DDR4.

Teils auch mit #CL 28, allerdings wohl nirgends zu kaufen momentan und vermutlich >500€ was es einfach nicht wert wäre, so lange man nicht gerade eine goldene Gans im Garten stehen hat.

.............................................

G.Skill Trident Z5 RGB: DDR5-6000 erstmals mit einer CAS-Latency von 30 Taktzyklen - ComputerBase

0
Die Latenz in deren Beispiel wäre aber beim 2400er besser:

So isses! =)

PizzaBub07  02.09.2022, 20:46

Also ich kenne mich mit dem Zeug nicht so gut aus wie du 😂 Aber ich denke, dass höhere MHz immer besser sind und die CL Dinger einfach noch so ne kleine Untergruppierung sind. Also ich würde immer bessere MHz als CL kaufen.
Klär mich auf wenns nicht so ist xD

0
Jimmy7890  03.09.2022, 22:07
@PizzaBub07

Wiso, wurde doch oben ausgerechnet. Was nutzt es dir wenn der Motor eines Autos mehr Umdrehungen schafft, aber weniger PS hat? =)

0

Die Latenz gibt an, wie lange es von der Anforderung bis zur Anlieferung dauert, die Taktrate gibt dann an, wie schnell die Daten übertragen werden.

Anforderung <-----> Latenz <-----> Übertragungszeit <-----> Ende.

Hohe Taktrate drückt die Übertragungszeit.

GuteAntwort2021 
Fragesteller
 02.09.2022, 21:20

Danke, das beantwortet aber nur bedingt meine Frage. :)

Wo ist der Cutoff? Beides im Zusammenspiel gibt ja entsprechend an, wie schnell geliefert wird, was deine Darstellung ausdrucksstark bestätigt.

Und basierend darauf müsste ein 4800 MHz DDR4 mit CL 19 ja deutlich besser sein als ein 4800 MHz DDR5 mit doppelter CL. Ist er in Benchmarks, Spielen, etc. aber nicht.

Woran liegt das? Und wie kann ich effizient einschätzen, gerade in Bezug von DDR4 und DDR5, welcher RAM besser ist?

0