Ist die RTX4000 Serie jetzt am Ende?

Das Ergebnis basiert auf 11 Abstimmungen

Nvidia muss Preise deutlich senken 73%
AMD gewinnt die Generation komplett weil.. 18%
Nvidia ist immer noch besser weil... 9%

9 Antworten

Hallo,

einiges was Du schreibst deckt sich auch mit ersten Erfahrungen einiger anderer Redaktionen von RTX 4090 vs. 3080Ti in der derzeitigen Praxisauswertung.

Augenscheinlich dürfte die RTX 4090 aber selbst in 4K praktisch zwar durchaus endlich mal als eine der ersten Karten am Markt durchaus das Prädikat "4K60p" verdient haben, aber ähnlich wie damals AMD mit seiner R9-Series 290 / 390 , Fiji und Abkömmlingen scheint die 4090 ihre brachiale Anzahl an Ausführungseinheiten hierund dort wohl nun auch nicht mehr vom Start aus auf die Piste bekommen zu können in allen Lagen.

Das altbekannte Problem auch bei Grafikkarten... laste bei nicht optimalem Front- / und Backend der Rendercores einer GPU von Beginn an alles auch optimal aus. In "Best-Scenarics" kann die RTX 4090FE der 3090Ti in UHD @ max. Details durchaus um ( Peak ) bis zu 90% davon eilen.

Warten wir daher erst mal ab, wie sich AMDs RDNA3 dagegn tatsächlich in der Praxis behaupten wird in den ganzen Einzeldisziplinen.

Nvidias RTX 4090 macht(e) aber immerhin schon mal den Eindruck, als sei 4K jetzt endlich auch in etwa wirklich "salonfähig" in der Gaming-Praxis direkt auf dem Screen, oder ggf. via VTX3D per Eyeset.

An den FHD bis WQHD - Mainstream dürfte NVidia die RTX 4090 jedenfalls nicht gerichtet haben. Ist schon viel Holz für eine "Gaming-Grafikkarte" , aber DAS muss AMD im Gaming erst mal zu "Kampfpreisen" nachmachen.

Ich sehe die größere Spannung da eher im Midrange bis Entry der kleineren Chips, wenn wir der RTX 4090 noch Treiber- / und Softwareprobleme zur optimalen Einheitenauslastung unterstellen wollten.

Noch spannender sehe ich, was sich effizienz- / und leistungstechnisch bei den "Entrys" künftig abspielen könnte im Segment bis etwa 300 Euro.

LG, MZ

ILM321 
Fragesteller
 03.11.2022, 23:41

Wenn es überhaupt noch 300€ Karten geben wird mit der kommenden Generation.. nvidia scheint ja durch die Bank die Preise nochmal anzuziehen und eine RTX3050 kostet ja schon um die 300€... Das macht mir keine großen Hoffnungen für die 4050 wenn sie Mal kommt. Bei AMD wird's wahrscheinlich besser aussehen, aber auch da wird's kaum was unter 300€ geben.

0
verreisterNutzer  03.11.2022, 23:57
@ILM321

Ich denke mal doch, dass weder Nvidia, noch AMD oder Intel dasPreissegment um etwa 200 bis 300 Euro als "Sweet-Spot" aufgeben werden.

Schaue Dir einfach über die ganzen Jahre bis Jahrzehnteeinfach mal in diversen Foren die unzähligen Fragen nach Gaming-Entry < 1000 oder Altrechner aufrüsten für kleines Geld mit wenig Netzteil-Leistung an.

Evtl. wird bei den modernen "Small-Chips" da durchaus etwas gesucht und findet Absatz < 75 Watt, aber > GTX 1650-4GD5 ( die derzeit noch immer leistungsfähigste Grafikkarte ohne Bedarf an elektrischer Zusatzversorgung vom Netzteil )

Der Markt ist riesig, denn Dell & Co. hatten mit ihren OEM-Workstations ja auch nicht bei Core 2 Quad in ihren Produktportfolios Schluss gemacht, und AMD, wie auch Intel können mit DDR5-RAM auch bei SoC ohne dedizierte Grafiklösung in ganz neue Sphären vorstoßen.

0
ILM321 
Fragesteller
 04.11.2022, 00:01
@verreisterNutzer

Ich denke das AMD da auf Dauer eher wie du auch schon sagtest auf APUs setzen wird. Wir haben ja schon erste gerüchte von Strix point und Phoenix welches starke APUs mit etwa GTX1050ti Leistung werden sollen, vielleicht mehr vielleicht bissl weniger.

Ich denke das es vereinzelt noch 300€ GPUs geben wird aber immer weniger. Der Euro ist abgefallen, Inflation, immer teuerer werdende fertigungen... Ich denke das rentiert sich auf Dauer nicht mehr

0
verreisterNutzer  04.11.2022, 00:30
@ILM321

GTX 1050Ti - Performance ist selbst am Notebook mit flottem DDR5 im Dualchannel bereits gefallen.

Die schnellsen Intels und Radeons kamen zuletzt selbst mit DDR4 im Dualchannel bei Notebooks einer GTX 1050Ti schon teils ganz nahe mit iGPU. War schon seit mobilityRyzen 4000-Series eher ein alter Schlappen, wenn die Gierschlunde statt 1×16 oder 2 × 8 GB DDR4-2665 die damaligen Vega 7/8 mit DDR4-4133 im Dualchannel gestützt hätten bei Notebooks.

iGPU & RAM verfolgt AMD bereits seit A-Series 78x0 wie Dreck am Hacken mit viel zu weit unterhalb der Möglichkeiten liegender RAM-Systembestückung.

Bereits A10-7800 wäre mit seinen 8 CU / 512 Shader-Units an 2 × 8 GB DDR3-2133 und guten Latenzen in der Lage gewesen, ein Game wie GTA V in niedrigen Details auf 720p bis 768p weitgehend flüssig darzubieten.

Iwo wollte das aber niemand, obwohl die Mehrkosten für besseren RAM selbst damals echt überschaubar waren.

Ryzen 4000 ( mobility) mit Vega 7 .... kam jemals ein gut verfügbares Notebook mit 2 × 8 GB DDR4-4133 raus?

Siehst Du, gab nicht, wollte iwo niemand.... hätte...hätte... Fahrradkette🙄

LG

0
ILM321 
Fragesteller
 04.11.2022, 00:49
@verreisterNutzer

GTX1050ti level Leistung wird noch nicht erreicht. Der Ryzen 5 5600G schafft mit 3200mts RAM grob GTX750ti-GTX760 Performance. Deshalb auch nur GTA mit Low settings. Eine GTX1050ti schafft GTAV auf hohen Einstellungen in 1080p.

Kann durchaus sein das mit 4000mts RAM die igpus näher an die Leistung einer 1050ti rankommen aber das ist overclocked RAM der offiziell nicht unterstützt wird von AMD.

0
verreisterNutzer  04.11.2022, 01:03
@ILM321

Ich mache hier jetzt Schluss, denn Intel mit seinen letzten GT3e, wie AMD mit seinen letzten Vegas/ RDNAs kamen der GTX 1050Ti unter optimalen Bedingungen teils echt schon nahe.

0
AMD gewinnt die Generation komplett weil..

Die Preise stimmen. Und wenn AMD die Leistungskrone will könnten sie das theoretisch locker machen, einfach 2 Navi 32 GCD mit 8MCD, 256MB Infinity Cache und 32GB VRAM. Dual Navi 31 wäre natürlich auch möglich

ILM321 
Fragesteller
 03.11.2022, 23:18

Weiß nicht ob die schon soweit sind das sie 2 GCDs vereinen können. Was sie auf jeden Fall machen könnten: 24gbit Speicher ist schon draußen, 27gbit steht vor der Tür (AMD nutzt nur 20gbit). Leistungsaufnahme auf 450w erhöhen was wahrscheinlich für rund 2,6-2,8ghz takt sorgen würde. Geleakt wurde das sie auf die MCDs mit 3d Technik mehr Infinity Cache setzen können bis zu 192mb.

Das alles sollte rund 20-40% mehr Leistung raus holen ohne groß was an dem GPU Design zu ändern. Ich denke auch das sowas in der Richtung in Form von einer RX7950XT(X) kommen wird um der RTX4090ti zu konkurrieren.

1
sgt119  03.11.2022, 23:24
@ILM321

Die 7950X als Refresh wäre natürlich der einfachste 4090 Konkurrent, ja

Was Chiplets angeht glaube ich durchaus dass AMD 2 GCDs ziemlich gut implementieren kann, die Erfahrung ist da

0
ILM321 
Fragesteller
 03.11.2022, 23:27
@sgt119

Ich weiß aber nicht wie der interconnect zwischen GCD und MCD aufgebaut ist und ob man da überhaupt bei der Architektur Mal eben einen extra Chip rein setzen kann. Kann gut sein das AMD das mit der Architektur noch nicht vorgesehen hat und deshalb technisch gar nicht möglich ist

1
Nvidia muss Preise deutlich senken

Bin erst nach AMD gewechselt und wenn deine Daten stimmen, bleibe ich da :))

Alleine Stromverbrauch ist der Hammer. Meine jetztige hat 330w und wenn ich dann für nur 20watt so einen Leistungszuwachs habe. Da freut sich das Portemonnaie

Lg

Nvidia muss Preise deutlich senken

Nvidia wird sicherlich nicht von AMD geschlagen, dafür ist Nvidia einfach zu stark verbreitet. Aber preislich muss es Anpassungen geben sonst wird Nvidia Marktanteile verlieren.
Ich bin selbst AMD-Fan, aber muss auch eingestehen, dass Nvidia die deutlich besseren Technologien bereitstellt. Wenn auch oft nicht genutzt oder sinnvoll.

ILM321 
Fragesteller
 03.11.2022, 23:06

Ja das stimmt. In Raytracing wird die 4090 zb wahrscheinlich immer noch um 20-40% gewinnen.. und dlss ist einfach besser als FSR.

Ich persönlich finde aber den 60% geringeren Preis und nur 10-20% weniger Leistung durchaus ansprechend. Hatte bisher mehr oder weniger nur nvidia GPUs aber der hohe stromverbauch und die immer assozialere weise von Nvidia drücken mich langsam echt weg von denen

0
Ifosil  03.11.2022, 23:08
@ILM321

Ich mag AMD auch, und FSR reicht mir vollkommen zu. Im Bewegten Bild erkennt eh keiner den Unterschied zwischen DLSS und FSR. (gleiche Versionen, gleicher Releasezeitraum.)

DLSS 3.0 ist natürlich was ganz anderes und eine geile Funktion. Nur leider ist fraglich, ob sich das jemals durchsetzen wird. Dafür ist es einfach zu exklusiv.

0
ILM321 
Fragesteller
 03.11.2022, 23:14
@Ifosil

Ich finde persönlich fsr und dlss witzlos. Besonders dlss 3.0 was die Latenz ja erhöhrt (siehe Hardware unboxed Video dazu).

In 1080p wird das Bild einfach in so einer geringen auflösung gerendert das man bei beiden Techniken einen deutlichen Abstrich bei Bildqualität machen muss. Und bei 1440p oder 4k sehe ich es nur als hilfreich an wenn man eine Karte hat die es nicht schafft das Spiel flüssig wiederzugeben. Bevor ich auf ultra settings dlss oder fsr aktiviere würde ich persönlich eher auf medium runter gehen (außer Texturqualität halt die bleibt auf hoch-ultra). Da sieht man meisten noch weniger Unterschiede als zwischen dlss an oder aus.

0
Ifosil  03.11.2022, 23:19
@ILM321

FSR und DLSS machen schon sinn. Aber nur unter gewissen Umständen. Besitzer von High-End-Karten profitieren davon eigentlich überhaupt nicht. Wo FSR glänzt, sind Besitzer von low-end und mid-tier Karten, die auf einen 4k Monitor laufen. Dies ermöglicht tatsächlich heftige Vorteile.

DLSS 3.0 hat einen anderen Zweck, denn das wirklich interessant ist die Zwischenbildberechnung. Dieses "Fake"-Frame was dazwischengeschoben wird. Besonders für AAA-Title Spieler eine nette Sache. Die spielen eh meist mit Controller und da macht bissi Input-lag nichts aus.

DLSS 3.0 könnte auf Dauer (falls AMD dies irgendwie ohne Hardware packt) eine kleine Revolution sein, besonders auf den Konsolen.

0
ILM321 
Fragesteller
 03.11.2022, 23:25
@Ifosil

Das Problem bei den zwischen gerenderten Bildern von dlss3.0 ist das sie bei weitem nicht perfekt sind. Jedes einzelne hat Artefakte und verschmierungen. Das gute ist das unser Auge träge ist und so leichte Abweichungen zwischen den Bildern nicht merkt, solange das Bild nicht zu lange angezeigt wird. Laut Hardware unboxed fallen die schlechten frames ab ca 150fps nicht mehr auf. Das heißt du brauchst erstmal eine Karte/Konsole welche grob 75fps schafft damit die Bildqualität nicht drastisch sinkt.

Dazu kommt daß du vielleicht mit dlss 3.0 in einem Spiel 100fps schaffst, vom Spielgefühl fühlt es sich aber eher nach 40fps an obwohl das Bild selbst flüssig ist, eben wegen der Latenz. Bei dlss2.0 hast du das Problem nicht da aus den 40 nativen FPS am Ende sagen wir Mal 60fps werden und auch die Latenz zeitgleich sinkt. Dementsprechend bietet dlss2.0 nicht nur das bessere Bild sondern auch ein flüssiges Spieleerlebnis.

Für mich ist die dlss3.0 Technik absolut witzlos. Dlss2.0 macht schon Sinn in einigen fällen aber 3.0 ist einfach verschwendete Zeit von Programmierern

0
Ifosil  03.11.2022, 23:26
@ILM321

Ja, das kann gut sein. Schauen wir mal, nichts ist perfekt.

0
Nvidia muss Preise deutlich senken

AMD machts halt besser nicht nur da

rx 6600 DEUTLICH besser als 3050 und günstiger

rx 6700xt vs 3070 fast so gut mehr video speicher

rx 6800xt 16gb VRam besser als 3080 10gb fast so gut wie 3080ti 12gb günstiger

rx 6900xt kanns mit 3090 aufnehmen mehr als 16gb Vram unnötig SEHR VIEL günstiger

9/10 punkte an AMD DLLS und rtx können nvidea karten noch besser

Woher ich das weiß:Hobby – Youtube Nachlesen Wiki