Deine theoretischen Gedanken gehen durchaus schon in die passende Richtung , denn DDR4 vs. DDR3 profitiert hauptsächlich von theoretisch höheren Bandbreiten durch höhere Interface- / und Speicherzellen - Taktung nebst ein par anderer physikalischer Details im Bezug auf Speicherzellenaufbau und Speicherdichte pro Speicherchip im Stack und der Signalqualität .
DDR4 macht von dieser Seite daher erst dann Sinn , wenn das Verhältnis aus Latenz und Taktung im Interface-Transfer insgesamt die Spezifikationen von DDR3 übersteigt .
für weitere Erklärungen muss ich aber erst mal zu Wikipedia ( insbesondere der Spezifikationstabellen ) verlinken :
https://de.m.wikipedia.org/wiki/DDR-SDRAM
Demnach wäre ein DDR3 - 1600 mit CL 9-9-9-24 prinzipiell erst mal nicht langsamer als ein fiktiver DDR4-3200 CL 18-18-18-48 , aber theoretisch könnte der 3200-er am Interface im Burst dann ( optimal ) nahezu die doppelte Datenmenge pro Sekunde übertragen .
Jetzt fragst Du Dich gewiss , wo dann der Sinn von DDR4 lag .... Es lag an der Entwicklung der Speichercontroller in sich mit zunehmenden Interface-Taktraten samt I/O und der Speicherzellenansteuerungstaktrate .
Nehmen wir da mal die AMD A10-7870K ( FM2+ & DDR3 ) vs. A12-9800(K) an AM4 mit DDR4 . Technisch bis auf die etwas effizienteren CPU - Kerne ( Steamroller vs. Excavator ) eigentlich alter Wein in neuen Schläuchen auf einem neuen Sockel .
Nur wurde es mit den Memory-Transferraten > 1866 bis 2133 Mhz DDR3 auf der alten FM2+ - Plattform bereits ( erheblich ) zunehmend schwierig mit der Systemstabilität mit den Taktraten im Interface zwischen RAM und den Rechenwerken im Memory-Controlling .
Die A12-9800(K) arbeitete meist aus dem Stand heraus mit DDR4 - 2133 bis 2400 , während das bei der A10-7870K bereits > 1866 im Dualchannel-Modus zunehmend schwierig wurde .
Der eigentlichen "Bulldozer-Technik" im CPU-Bereich selbst brachte RAM - OC ohne Teilungszwang mit integrierten Grafikkernen ansonsten kaum etwas ohne gesamtheitlichem OC sämtlicher Prozessor - Arbeitsdomänen bei Core und Uncore / Nortbridge - Bereichen . ( diese liefen auf dieser Technologie nicht 1:1 wie seinerzeit inzwischen bei Intel )
Selbst bei Ryzen 1000 / 2000 ( und teils bis Ryzen 3000 ) hatte AMD teils noch verschiedene Taktdomänen ( insbesondere im CCX / Infinity Fabric - Managgement ) mit starker Abhängigkeit zum RAM - Takt ( DDR ) gegenüber Intels "Monolith-" plus "Ringbus" -Strukturen im Prozessor .
Rein über Deine berechneten Latenzen der beiden DDR-Standards kommt ansonsten in den meisten Fällen ohne Ressourcensharing zwischen CPU & iGPU-Cores beim Anwender abseits synthetischer Benchmarls meist kaum etwas an bei derart naheliegenden DDR - Taktfrequenzen von rechnerisch < 10 % Latenzabweichung .
Ja , es ist jeweils für sich alleine betrachtet daher durchaus komplizierter , als auf den ersten Blick ersichtlich im Zusammenspiel aller Komponenten .