jetzt pc kaufen mit rtx 4070 oder warten auf 5070?
4 Antworten
Gegenfragen: wann brauchst den PC? Wann wird die 5070 realistisch lieferbar sein? Wann vor allem zur EVP?
Kommt drauf an wie geduldig du bist.
Außerdem würde ich dir eher zu einer 4070 Super oder 4070 TI Super raten anstatt die normale 4070.
Naja, die 5000 Reihe ist ein absoluter Reinfall. Auf die zu warten kann noch dauern. Es gibt viel zu wenig, es gibt direkt Treiberprobleme die die Karten bricken, bei der 5090 schmilzt mal wieder teilweise der Stecker...
Und generell ist die Rohleistung recht enttäuschend, weil NVIDIA so krampfhaft auf das ganze KI Frame Generation setzt, gefällt mir überhaupt nicht.
Ich denke du meinst die Effizienz und unter gewissen Umständen ist die 5090 sogar effizienter als die 4090.
Und die 4090 war auch schon effizienter als jede AMD Karte.
und unter gewissen Umständen ist die 5090 sogar effizienter als die 4090.
20% Mehrleistung und 30% mehr Verbrauch sehe ich nicht als effizienter an.
Und ja, mit KI mag das stimmen.
Ich meine ohne KI.
Es sind 26 bis 27% mehrleistung und die Worte sind von Der8auer
Okay, dann varrieren die Benchmarks/Tests wohl.
Aber selbst wenn es 27% sind und dann 30% mehr Verbrauch ist das nicht effizienter.
In Full HD kann es wohl auch auf 10% runter gehen dafür ist die Karte aber nicht gemacht.
Und klar in manchen games ist es vllt nur 20%, in anderen vllt 35% jedenfalls kommt man dann auf so 26 bis 27%.
Und der Verbrauch muss ja nicht unbedingt immer 30% höher sein und man kann undervolten
und man kann undervolten
Klar KANN man das.
Aber NVIDIA hat definitiv mehr angekündigt, als sie geliefert haben.
Also mit DLSS 4 und FG ist die Karte da wo NVIDIA sagte sie sein würde.
Ich finde man muss das AI zeug in Vergleiche auch mit einbeziehen, aber die Rohleistung der 5090 reicht eh das man in keinem Game 4x FG braucht.
Also mit DLSS 4 und FG ist die Karte da wo NVIDIA sagte sie sein würde
Es hieß damals, sie wird mit 3nm gefertigt...
Sieht man ja, dass es nicht so ist.
aber die Rohleistung der 5090 reicht eh das man in keinem Game 4x FG braucht..
Je nach Settings halt gerade so...
Also Cyberpunk läuft mit dem absolut besten settings in 80 bis 90 FPS sehe nicht wo man da FG braucht?
AI ist die Zukunft da bald die physikalischen Grenzen erreicht sind, sobald das der Fall ist, ist AMD aus dem Rennen
Naja, ne. KI selber hat ein Limit. 3 Frames raus interpolaten, ok. Viel weiter wird das aber auch nicht gehen. Du kannst nicht einen einzelnen Frame generieren, und dann 40 mit der KI herzaubern.
Man wird halt anfangen müssen, Komponenten nochmal etwas größer zu bauen, wie ZB mit einem 2. Prozessor drauf. KI ist keine langzeitlösung.
Ich rede da nicht nur von FG sondern auch DLSS usw.
Wie will AMD bei NVIDIA sein, was sie auch jetzt schon nicht sind, wenn kleiner machen nicht mehr geht?
Und soll der Stromverbrauch dann irgendwann 3 Kilowatt sein?
Die physikalischen Grenzen sind nur bei der siliziumstrukturgröße bald erreicht. Dann wird man noch einige Jahre immer mehr Chips aneinanderkoppeln um weiterhin Leistung zu generieren. AI ist bloß Software obwohl immer so getan wird als sei spezielle Hardware nötig! Einer software ist egal wie der Grafikkartenhersteller heißt.
DLSS ist klar nur software, frame gen auch, diese Software läuft aber bei NVIDIA auf den extra dafür vorgesehenen und optimierten Tensor cores.
Und ist anders als FSR tatsächliche KI
dlss ist keine AI nach meiner Definition. du kannst es aber so bezeichnen-wenn dlss ai wäre würden allerdings im gaming bei Jedem die Spiele sehr anders ausschauen je nachdem welche Hardware verbaut ist. das ist von den publishern bisher eher unerwünscht.
DLSS rechnet hässliche Bilder feiner. Das konnten PC´s in den 90ern auch schon
Nein, tut es nicht.
Du verstehst nicht mal wie DLSS funktioniert.
Du bist wahrscheinlich ein hardcore AMD Fan, stimmt?
Du bist wahrscheinlich ein hardcore AMD Fan, stimmt?
Ah, tolle Argumentationsbasis.
DSLL ist KI, ka. Ich gehe jetzt einfach mal davon aus, dass schortkramer mit der Erklärung kommt, dass selbst ChatGPT keine KI ist, ganz nach "eine echte KI gibt es nicht". Aber die dumme Dikussion um die Begriffe, bei der jeder weiß, was gemeint ist, spar ich mir.
Dennoch hat schortkramer recht, dahingehend, dass KI nur software ist, und nur zu einem Limit helfen kann. Rohleistung wird immer nötig sein, KI kann nur zu einem gewissen Grad ein bisschen die FPS boosten, ist aber in keinster Weise die Lösung für alles ab jetzt.
Besonders, wenn spiele mehr und mehr Raytracing benutzen, kann dir KI da nicht viel helfen. Rays erraten bringt dir nicht viel, die musst du wirklich berechnen
Ich schrieb das, da die typische argumentationsbasis von AMD fans ist, alles was NVIDIA deutlich besser macht auszuklammern und zu sagen braucht man nicht.
Wobei NVIDIA Karten eh in jedem Aspekt besser sind als AMD, außer beim Preis.
Ich definiere KI so, dass dabei ein nicht vordefinierter Denkprozess stattfindet der zu unterschiedlichen Ergebnissen führen kann. Das ist bei hardwarebasiertem DLSS im Gaming wo es grob gesagt um das interpolieren geht nicht erwünscht. Bei chatgpt sehr wohl, denn da weiß man vorher nicht was genau das Programm ausspucken wird.
Die Diskussion ob ich ein AMD oder NVIDIA Fanboy wäre muss ich mir nicht geben. Ich war von Anfang an Fan von DLSS und es gibt auch mehrere Zitate von mir, dass ich DLSS einfach nur geil finde! Wenns KI wäre, fänd ichs eher blöd, denn dann würden ständig Fehlinterpretationen auftauchen. Ein störender roter Bildpunkt auf einer Stahlblauen Maschine zum Beispiel. KI macht FEHLER
DSLL ist aber KI. Allein der Name sagt es ja schon. Deep Learning Super Sampling. Das ganze benutzt Neuronale Netzwerke, Machine Learning Algorithmen. Du nennt chatgpt KI, dann ist DLSS das genauso.
Und auch DLSS macht Fehler. Die Frames sind nie perfekt, niemals so genau wie eine richtige frameberechnung
Wobei man sagen muss das man bei Quality schon tendenziell das Bild pausieren muss um minimale Fehler zu erkennen.
Die RTX 5090 liefert die Bildqualität der RTX 4090 in Performance, die die 4090 in Quality hatte.
ja, DLSS wird ja auch immer wilder! Die ersten beiden Versionen waren noch ziemlich perfekt. Ich könnte mich darauf einigen, dass DLSS sich immer weiter zu KI entwickelt, aber das kann so nicht im Interesse der Spieleentwickler sein. Am Ende werden dann die Spiele immer hässlicher um auf Krampf noch ein paar % mehr Leistung rauszukitzeln.
Ich könnte mich darauf einigen, dass DLSS sich immer weiter zu KI entwickelt
Ne...ne du. Auch die erste version war bereits KI...es ist DEEP LEARNING Super Sampling. Was du hier gerade versuchst zu argumentieren, ist komplett lost.
ich werde mich nicht von dir auf diesen Marketingbegriff festnageln lassen!
Marketingbegriff? Ich red hier vom offiziellen, komplett technischen Begriff. Das hat absolut garnix mit Marketingkram zu tun.
Die 2080 super war ja auch so richtig wissenschaftlich geiler! immerhin wurde sie NOCH heißer und hatte mehr Stromverbrauch bei gleicher Kühllösung und das alles mit sagenhaften 8GB vram
das "super" ist ein Marketingteilbegriff nix weiter. gleicher Konzern und gleicher Ansatz!
Alter wenn du halt wirklich garkein Plan hast woher die Begriffe kommen, und verschiedene Dinge zusammenbringst, so als wäre das ein Argument, und es als "Marketingbegriff" deklarierst, dann ist die Diskussion hier vorbei. Bis dann.
warte auf die 5070. realisiere das der 1000+€ kostet und kaufe dir eine amd 7900xt
Sehe ich auch so.
Wenn man von der KI absieht, sind die Karten nicht besser, sondern in manchen Punkten sogar schlechter geworden.