Arbeitsspeicher: CL vs MHz?

Kann mir einer eventuell erklären, welches mehr Einfluss auf die Performance hat?

Ich weiß, dass man die Latenz als ein Maß heranzieht, die sich schlicht aus



Berechnen lässt. Ein DDR4 Speicher mit 3200MHz und 16 CL hätte demnach eine Latenz von 10 Nanosekunden.

Allerdings muss der Durchfluss ja ebenfalls Auswirkungen auf die Performance haben, sonst müsste ein DDR3 RAM mit 11 CL und 2400 MHz ja eigentlich eine bessere Performance liefern (~9,1666 Nanosekunden). Ähnliche Beispiele finden sich auch für DDR2 oder DDR1 RAM.

Gleichzeitig müsste DDR5 weniger FPS bieten in Spielen, selbst die 6000er mit 40 CL (13,3333 Nanosekunden).

......................

Ich hatte diesbezüglich vom Hersteller Crucial eine Erklärung gelesen, dass bei ungefähr gleichen Timings die höhere Taktrate mehr bringt. So schrieben sie folgendes:

  • Beispiel: Da die Latenz in Nanosekunden für DDR4-2400 CL17 und DDR4-2666 CL19 ungefähr gleich ist, bietet das schnellere DDR4-2666 RAM eine bessere Leistung
  • Beispiel: Wenn der Geschwindigkeitsindex eines Standardmoduls und eines Gaming-Moduls gleich (z. B. DDR4-2666), die CAS-Latenzen jedoch unterschiedlich sind (z. B. CL16 vs. CL19), bietet die geringere CAS-Latenz eine bessere Leistung.

Die Latenz in deren Beispiel wäre aber beim 2400er besser:

34000 / 2400 ~ 14,1667
38000 / 2666 ~ 14,254

Hier ist jetzt die Frage: Wo ist der Cutoff? Wie kann man den Unterschied der Taktrate dabei noch berücksichtigen?

Denn gemessen daran, hätte DDR5 mit seinen deutlich höheren CAS Latenzen trotz des Taktboosts doch keine Chance. In Tests bietet DDR5 je nach Spiel und besonders auf niedrigeren Auflösungen (720 und 1080p) deutlich mehr FPS.

Ist jemand Experte auf dem Gebiet und kann mich aufklären?

Danke für eure Zeit.

...zur Frage

Deine theoretischen Gedanken gehen durchaus schon in die passende Richtung , denn DDR4 vs. DDR3 profitiert hauptsächlich von theoretisch höheren Bandbreiten durch höhere Interface- / und Speicherzellen - Taktung nebst ein par anderer physikalischer Details im Bezug auf Speicherzellenaufbau und Speicherdichte pro Speicherchip im Stack und der Signalqualität .

DDR4 macht von dieser Seite daher erst dann Sinn , wenn das Verhältnis aus Latenz und Taktung im Interface-Transfer insgesamt die Spezifikationen von DDR3 übersteigt .

für weitere Erklärungen muss ich aber erst mal zu Wikipedia ( insbesondere der Spezifikationstabellen ) verlinken :

https://de.m.wikipedia.org/wiki/DDR-SDRAM

Demnach wäre ein DDR3 - 1600 mit CL 9-9-9-24 prinzipiell erst mal nicht langsamer als ein fiktiver DDR4-3200 CL 18-18-18-48 , aber theoretisch könnte der 3200-er am Interface im Burst dann ( optimal ) nahezu die doppelte Datenmenge pro Sekunde übertragen .

Jetzt fragst Du Dich gewiss , wo dann der Sinn von DDR4 lag .... Es lag an der Entwicklung der Speichercontroller in sich mit zunehmenden Interface-Taktraten samt I/O und der Speicherzellenansteuerungstaktrate .

Nehmen wir da mal die AMD A10-7870K ( FM2+ & DDR3 ) vs. A12-9800(K) an AM4 mit DDR4 . Technisch bis auf die etwas effizienteren CPU - Kerne ( Steamroller vs. Excavator ) eigentlich alter Wein in neuen Schläuchen auf einem neuen Sockel .

Nur wurde es mit den Memory-Transferraten > 1866 bis 2133 Mhz DDR3 auf der alten FM2+ - Plattform bereits ( erheblich ) zunehmend schwierig mit der Systemstabilität mit den Taktraten im Interface zwischen RAM und den Rechenwerken im Memory-Controlling .

Die A12-9800(K) arbeitete meist aus dem Stand heraus mit DDR4 - 2133 bis 2400 , während das bei der A10-7870K bereits > 1866 im Dualchannel-Modus zunehmend schwierig wurde .

Der eigentlichen "Bulldozer-Technik" im CPU-Bereich selbst brachte RAM - OC ohne Teilungszwang mit integrierten Grafikkernen ansonsten kaum etwas ohne gesamtheitlichem OC sämtlicher Prozessor - Arbeitsdomänen bei Core und Uncore / Nortbridge - Bereichen . ( diese liefen auf dieser Technologie nicht 1:1 wie seinerzeit inzwischen bei Intel )

Selbst bei Ryzen 1000 / 2000 ( und teils bis Ryzen 3000 ) hatte AMD teils noch verschiedene Taktdomänen ( insbesondere im CCX / Infinity Fabric - Managgement ) mit starker Abhängigkeit zum RAM - Takt ( DDR ) gegenüber Intels "Monolith-" plus "Ringbus" -Strukturen im Prozessor .

Rein über Deine berechneten Latenzen der beiden DDR-Standards kommt ansonsten in den meisten Fällen ohne Ressourcensharing zwischen CPU & iGPU-Cores beim Anwender abseits synthetischer Benchmarls meist kaum etwas an bei derart naheliegenden DDR - Taktfrequenzen von rechnerisch < 10 % Latenzabweichung .

Ja , es ist jeweils für sich alleine betrachtet daher durchaus komplizierter , als auf den ersten Blick ersichtlich im Zusammenspiel aller Komponenten .

...zur Antwort