Arbeitsspeicher: CL vs MHz?
Kann mir einer eventuell erklären, welches mehr Einfluss auf die Performance hat?
Ich weiß, dass man die Latenz als ein Maß heranzieht, die sich schlicht aus
Berechnen lässt. Ein DDR4 Speicher mit 3200MHz und 16 CL hätte demnach eine Latenz von 10 Nanosekunden.
Allerdings muss der Durchfluss ja ebenfalls Auswirkungen auf die Performance haben, sonst müsste ein DDR3 RAM mit 11 CL und 2400 MHz ja eigentlich eine bessere Performance liefern (~9,1666 Nanosekunden). Ähnliche Beispiele finden sich auch für DDR2 oder DDR1 RAM.
Gleichzeitig müsste DDR5 weniger FPS bieten in Spielen, selbst die 6000er mit 40 CL (13,3333 Nanosekunden).
......................
Ich hatte diesbezüglich vom Hersteller Crucial eine Erklärung gelesen, dass bei ungefähr gleichen Timings die höhere Taktrate mehr bringt. So schrieben sie folgendes:
- Beispiel: Da die Latenz in Nanosekunden für DDR4-2400 CL17 und DDR4-2666 CL19 ungefähr gleich ist, bietet das schnellere DDR4-2666 RAM eine bessere Leistung
- Beispiel: Wenn der Geschwindigkeitsindex eines Standardmoduls und eines Gaming-Moduls gleich (z. B. DDR4-2666), die CAS-Latenzen jedoch unterschiedlich sind (z. B. CL16 vs. CL19), bietet die geringere CAS-Latenz eine bessere Leistung.
Die Latenz in deren Beispiel wäre aber beim 2400er besser:
34000 / 2400 ~ 14,1667
38000 / 2666 ~ 14,254
Hier ist jetzt die Frage: Wo ist der Cutoff? Wie kann man den Unterschied der Taktrate dabei noch berücksichtigen?
Denn gemessen daran, hätte DDR5 mit seinen deutlich höheren CAS Latenzen trotz des Taktboosts doch keine Chance. In Tests bietet DDR5 je nach Spiel und besonders auf niedrigeren Auflösungen (720 und 1080p) deutlich mehr FPS.
Ist jemand Experte auf dem Gebiet und kann mich aufklären?
Danke für eure Zeit.
3 Antworten
Deine theoretischen Gedanken gehen durchaus schon in die passende Richtung , denn DDR4 vs. DDR3 profitiert hauptsächlich von theoretisch höheren Bandbreiten durch höhere Interface- / und Speicherzellen - Taktung nebst ein par anderer physikalischer Details im Bezug auf Speicherzellenaufbau und Speicherdichte pro Speicherchip im Stack und der Signalqualität .
DDR4 macht von dieser Seite daher erst dann Sinn , wenn das Verhältnis aus Latenz und Taktung im Interface-Transfer insgesamt die Spezifikationen von DDR3 übersteigt .
für weitere Erklärungen muss ich aber erst mal zu Wikipedia ( insbesondere der Spezifikationstabellen ) verlinken :
https://de.m.wikipedia.org/wiki/DDR-SDRAM
Demnach wäre ein DDR3 - 1600 mit CL 9-9-9-24 prinzipiell erst mal nicht langsamer als ein fiktiver DDR4-3200 CL 18-18-18-48 , aber theoretisch könnte der 3200-er am Interface im Burst dann ( optimal ) nahezu die doppelte Datenmenge pro Sekunde übertragen .
Jetzt fragst Du Dich gewiss , wo dann der Sinn von DDR4 lag .... Es lag an der Entwicklung der Speichercontroller in sich mit zunehmenden Interface-Taktraten samt I/O und der Speicherzellenansteuerungstaktrate .
Nehmen wir da mal die AMD A10-7870K ( FM2+ & DDR3 ) vs. A12-9800(K) an AM4 mit DDR4 . Technisch bis auf die etwas effizienteren CPU - Kerne ( Steamroller vs. Excavator ) eigentlich alter Wein in neuen Schläuchen auf einem neuen Sockel .
Nur wurde es mit den Memory-Transferraten > 1866 bis 2133 Mhz DDR3 auf der alten FM2+ - Plattform bereits ( erheblich ) zunehmend schwierig mit der Systemstabilität mit den Taktraten im Interface zwischen RAM und den Rechenwerken im Memory-Controlling .
Die A12-9800(K) arbeitete meist aus dem Stand heraus mit DDR4 - 2133 bis 2400 , während das bei der A10-7870K bereits > 1866 im Dualchannel-Modus zunehmend schwierig wurde .
Der eigentlichen "Bulldozer-Technik" im CPU-Bereich selbst brachte RAM - OC ohne Teilungszwang mit integrierten Grafikkernen ansonsten kaum etwas ohne gesamtheitlichem OC sämtlicher Prozessor - Arbeitsdomänen bei Core und Uncore / Nortbridge - Bereichen . ( diese liefen auf dieser Technologie nicht 1:1 wie seinerzeit inzwischen bei Intel )
Selbst bei Ryzen 1000 / 2000 ( und teils bis Ryzen 3000 ) hatte AMD teils noch verschiedene Taktdomänen ( insbesondere im CCX / Infinity Fabric - Managgement ) mit starker Abhängigkeit zum RAM - Takt ( DDR ) gegenüber Intels "Monolith-" plus "Ringbus" -Strukturen im Prozessor .
Rein über Deine berechneten Latenzen der beiden DDR-Standards kommt ansonsten in den meisten Fällen ohne Ressourcensharing zwischen CPU & iGPU-Cores beim Anwender abseits synthetischer Benchmarls meist kaum etwas an bei derart naheliegenden DDR - Taktfrequenzen von rechnerisch < 10 % Latenzabweichung .
Ja , es ist jeweils für sich alleine betrachtet daher durchaus komplizierter , als auf den ersten Blick ersichtlich im Zusammenspiel aller Komponenten .
Danke für deine hilfreiche Antwort.
.............................................
Interessante Bilder dazu:
https://pics.computerbase.de/9/2/2/9/0/3-1280.28fe57ea.png
https://pics.computerbase.de/9/2/2/9/0/2-1080.e15eb6f4.png
Allerdings stellt sich dadurch die Frage, ob sich überhaupt noch ein Kit aus Beispielsweise 2x16GB lohnt, anstatt von 1x32GB. War fehlendes "Same Bank refresh" nicht der Grund, warum man auf ein Kit zurückgegriffen und es im Dual Mode betrieben hat?
Aber ich habe gerade gesehen, dass es auch schon CLs von 32 bei 6000 MHz gibt. Die sind zwar gerade noch absurd teuer (400€) aber wenn die mal preislich in den Bereich von 150-200€ kommen, gibt es keinen Grund mehr für DDR4.
Teils auch mit #CL 28, allerdings wohl nirgends zu kaufen momentan und vermutlich >500€ was es einfach nicht wert wäre, so lange man nicht gerade eine goldene Gans im Garten stehen hat.
.............................................
G.Skill Trident Z5 RGB: DDR5-6000 erstmals mit einer CAS-Latency von 30 Taktzyklen - ComputerBase
Die Latenz in deren Beispiel wäre aber beim 2400er besser:
So isses! =)
Wiso, wurde doch oben ausgerechnet. Was nutzt es dir wenn der Motor eines Autos mehr Umdrehungen schafft, aber weniger PS hat? =)
Die Latenz gibt an, wie lange es von der Anforderung bis zur Anlieferung dauert, die Taktrate gibt dann an, wie schnell die Daten übertragen werden.
Anforderung <-----> Latenz <-----> Übertragungszeit <-----> Ende.
Hohe Taktrate drückt die Übertragungszeit.
Danke, das beantwortet aber nur bedingt meine Frage. :)
Wo ist der Cutoff? Beides im Zusammenspiel gibt ja entsprechend an, wie schnell geliefert wird, was deine Darstellung ausdrucksstark bestätigt.
Und basierend darauf müsste ein 4800 MHz DDR4 mit CL 19 ja deutlich besser sein als ein 4800 MHz DDR5 mit doppelter CL. Ist er in Benchmarks, Spielen, etc. aber nicht.
Woran liegt das? Und wie kann ich effizient einschätzen, gerade in Bezug von DDR4 und DDR5, welcher RAM besser ist?
Ich würde davon ausgehen, daß das an der restlichen Platform liegt.
Also ich kenne mich mit dem Zeug nicht so gut aus wie du 😂 Aber ich denke, dass höhere MHz immer besser sind und die CL Dinger einfach noch so ne kleine Untergruppierung sind. Also ich würde immer bessere MHz als CL kaufen.
Klär mich auf wenns nicht so ist xD