welche Grafikkarte für 240fps+?

1 Antwort

Hallo,

Rainbow ist nicht gerade sehr aufwendig aber auch nicht zu unterschätzen. Ich Frage mich nun aber warum du so viele FPS haben willst. Ich bezweifle, dass du einen 250Hz Montior hast. Ich schätze auf 60 Hz oder höchstes 144hz. So dass du auch nur höchstens 144/leicht mehr FPS brauchst. Welche Grafikkarte du nun brauchst liegt auch viel am Prozesser. Sowas wie GTX 1660 (Super) oder vergleichbare AMD Karten müssten es aber schafften.

Cia

Woher ich das weiß:Hobby

unsignedInt  13.04.2020, 02:53
höchstes 144hz. So dass du auch nur höchstens 144 Hz

Diese Schlussfolgerung ist falsch; 200fps bei 144Hz sind sehr wohl besser als 144fps. Dazu wurde bereits ausreichend debattiert, langsam sollte das Thema erledigt sein.

1
verreisterNutzer  13.04.2020, 02:55
@unsignedInt

Habe nicht vor eine weitere Debatte hier Handzugaben, aber vor allem bei einem 60hz Monitor wären diese 250fps nicht gerechtfertigt :)

0
skiddy  13.04.2020, 02:57
@unsignedInt

Naja, erkläre deine Schlussfolgerung. Ob man nun dauerhaft genau 144 FPS hat oder 200 ist egal, wenn der Monitor nicht dazu in der Lage ist mehr auszugeben. In Wahrheit können mehr als 144 FPS bei einem 144 Hertz Monitor auch zu Tearing führen.

0
unsignedInt  13.04.2020, 02:58
@skiddy
wenn der Monitor nicht dazu in der Lage ist mehr auszugeben

Das ist falsch!

1
unsignedInt  13.04.2020, 02:58
@unsignedInt

Ich zietiere mich von vor einer Woche (aus dem Kontext gerissen):

Ach so, da liegt das Problem: Du hast schlicht und ergreifend keinerlei Ahnung, wie die Kommunikation zwischen Der GPU und dem Monitor funktioniert und kannst einfach keine qualifizierte Antwort abgeben... Okay, kein Problem. Um hier aufzuräumen (hat @Waldelb3 im übrigen schon gesagt!):
Der Monitor (bspw. 75 HZ) aktualisiert 75 mal pro Sekunde den Bildschirm (alle Pixel), von oben nach unten, Reihe für Reihe. Die Graka berechnet nun, sagen wir mal, 100 Bilder/s und schickt diese Bildinformationen dem Monitor. Je nachdem, wo der Monitor nun derzeitig die Pixel aktualisiert (Reihe für Reihe, oben nach unten), wird an dieser Stelle entsprechend der Pixel mit neuen Informationen überschrieben.
Beispiel: Hast Du nun einen perfekt getakteten 100Hz-Monitor und eine Graka, die extrem konstant 1000 Bilder pro Sekunde liefert (alle 1ms bzw. 0.001s), werden pro volles Bild auf dem Monitor je 10% eines vollen Bildes angezeigt, von den letzten 10 (von der GPU) gelieferten Bilder. Daher kommt übrigens Screen-Tearing, wenn die FPS- und HZ-Zahl nicht übereinstimmen (Bei geringen Bewegungsgeschwindigkeiten ingame und/oder hohen Hz-Zahlen  eher unbedeutend).
75Hz bedeutet  NICHT (ich wiederhole:  NICHT), dass der Monitor  nur 75 Bilder/s anzeigen kann und die restlichen 925, die von der Graka berechnet werden, verworfen werden!
Ich hoffe, dieser Text hat mal klar gemacht, wie der Mist überhaupt funktioniert. In 'ner Minute runtergeballert, Rechtschreibfehler darfste behalten. Bei Fragen fragen. Gute Nacht!
0
verreisterNutzer  13.04.2020, 03:01
@unsignedInt

Jungs, ich möchte ich ungern stören, aber irgendwie wirkt das gerade sehr offtopic haha. Können wir uns einfach darauf einigen, dass 250fps übertrieben sind haba

0
unsignedInt  13.04.2020, 03:02
@verreisterNutzer

Können wir gewiss nicht, Sprichwort Latenz. Competitive Gaming benötigt high FPS, ganz einfach ^^

1
verreisterNutzer  13.04.2020, 03:04
@unsignedInt

Von jemandem der sich einen neuen PC holen will und hier im Forum explizit nach 250 FPS fragt, erwarte ich weder, dass dieser krass Competetive Spielt, noch, dass er wirklich diese genauen 250fps für den (ich gehe jetzt Mal davon aus) 60 Hz Monitor braucht. Irgendwann checkt das Auge auch nicht mehr, dass die Hz/FPS Zahl höher geht haha (bitte jetzt nicht debattieren warn Joke)

0
Timbnn 
Fragesteller
 13.04.2020, 03:05
@unsignedInt

würde mir als CPU ein Intel i7 Holen. Mein Bruder hat in sein pc ne 2070 und hat 250 -320 fps .

0
verreisterNutzer  13.04.2020, 03:06
@Timbnn

Noch Mal die Frage. Wozu brauchst du so dermaßen viele FPS. Was für einen Monitor hast du :) und dazu was für einen i7 ich hoffe ma nicht den 1700 haha

0
verreisterNutzer  13.04.2020, 03:15
@Timbnn

Preislich alles bullshit. Ich würde dir einen Eigenbau empfehlen. Seiten wie Hardwaredealz bieten coole Konfigurationen und du hast bestimmt nen Freund der dir beim Zusammenbau helfen kann

0
skiddy  13.04.2020, 03:22
@unsignedInt

Dann würde mich zwei Dinge brennend interessieren:

  1. Hast du irgendeinen Beleg für deine Aussage? Irgendeine Quelle wo man das nachlesen kann?
  2. Wenn der Monitor laut deinen Aussagen, nicht mehr als z.B. 75 FPS bei 75 Hertz ausgeben kann, wo gehen dann die anderen Frames hin?

Ganz genau, sie werden quasi "verworfen". Was ein Monitor nicht anzeigen kann, kann er nicht anzeigen. Er kann somit nicht das komplette Bild wiedergeben, dass die Grafikkarte ihm liefert. Dahingegen kann man schon sagen, dass hier Performance in Form von Bildern verloren gehen, da diese schlicht weg einfach nicht angezeigt werden können.

0
unsignedInt  13.04.2020, 03:32
@skiddy
Dann würde mich zwei Dinge brennend interessieren:
Hast du irgendeinen Beleg für deine Aussage? Irgendeine Quelle wo man das nachlesen kann?
Wenn der Monitor laut deinen Aussagen, nicht mehr als z.B. 75 FPS bei 75 Hertz ausgeben kann, wo gehen dann die anderen Frames hin?
Ganz genau, sie werden quasi "verworfen". Was ein Monitor nicht anzeigen kann, kann er nicht anzeigen. Er kann somit nicht das komplette Bild wiedergeben, dass die Grafikkarte ihm liefert. Dahingegen kann man schon sagen, dass hier Performance in Form von Bildern verloren gehen, da diese schlicht weg einfach nicht angezeigt werden können

Möchtest Du mal bite lesen, was ich geschrieben habe? Nichts von dem, was Du gerade geschrieben hast, ist stimmig, und nichts von dem, was ich angeblich behauptet habe, habe ich behauptet.

0
skiddy  13.04.2020, 03:35
@unsignedInt

Natürlich behauptest du es solange du keine eindeutige Quelle liefern kannst. Und zeige mir doch mal was nicht "stimmig" ist. Es gibt dutzende von Artikeln, die genau beschreiben wie die Refresh-Rate funktioniert. Und in diesen ist kein sterbenswörtchen davon, was du hier auftischst. Ja es ist richtig, dass FPS != Hertz sind. Aber dass der Monitor nicht mehr als die Hertzfrequenz ausgeben kann ist nunmal Fakt. Wie stellst du dir das bitte vor? Sollen die restlichen Frames auf dem Monitor trotzdem projiziert werden? Nein natürlich nicht. Anscheinend hast du MEINEN Text nicht richtig durchgelesen, dann könntest du mir nämlich auch richtig darauf antworten anstatt meinen Fragen auszuweichen.

0
unsignedInt  13.04.2020, 03:36
@unsignedInt

Zum Nachlesen/Nachsehen:

Kann noch mehr Quellen 'raussuchen, mache ich vllt. morgen ^^

Komm' mir nicht mit deinem schwachsinnigen Halbwissen und lies meinen verschissenen Text. Du scheinst ja nicht einmal die Hälfte der Wörter verstanden zu haben (deiner Zusammenfassung nach).

1
unsignedInt  13.04.2020, 03:39
@skiddy

LIES DEN TEXT. LIES DIE QUELLEN. SETZE DICH MIT DER FUNKTIONSWEISE VON GRAFIKKARTEN AUSEINANDER.

Erst dann darfst Du etwas darüber diskutieren, da Du offensichtlich - mit Verlaub - keine Ahnung von der Materie hast. Dazu hab ich noch 'ne lustige Diskussion, suche ich gleich 'raus. Da war jemand ebenso stur und ahnungslos wie Du, nur war sein Deutsch auch noch grottig (kannst Dir denken, wie lustig und gleichzeitig traurig das war): https://www.gutefrage.net/frage/bringen-mir-mehr-fps-als-75-was-bei-einem-75hz-monitor#comment-241130929 (die gesamte Diskussion unter der Antwort von @Atilla333).

1
unsignedInt  13.04.2020, 03:43
@unsignedInt
Aber dass der Monitor nicht mehr als die Hertzfrequenz ausgeben kann ist nunmal Fakt

Langsam reicht's. Beweis' mir doch (mit Quellen!) und einer ausführlichen(!) Erläuterung, warum das denn bitte so ist!

1
skiddy  13.04.2020, 03:50
@unsignedInt

Ich habe kein "verschissenes Halbwissen". In keinem deiner Quellen wird beschrieben, dass die FPS nicht von der Herzfrequenz des Monitors eingeschränkt werden. Dass diese in einem Buffer gespeichert werden, bis diese Herausgehen ist ziemlich logisch. Anscheinend solltest du selbst die Quellen durchlesen, bevor du hier so eine Antwort schreibst. Ich werde mich auch nicht weiter mit dir befassen, da du die Zeit einfach nicht wert bist.

0
unsignedInt  13.04.2020, 03:53
@skiddy

ich habe eine ganz SIMPLE Frage an dich, dann verabschiede ich mich für die Nacht:

Was passiert denn, wenn während der Informationsübertragung für ein Frame (GPU->Monitor) die GPU ein neues Bild berechnet und in den Framebuffer ablegt? Ein Tipp: Der Monitor bekommt die Frames nicht am Stück, sondern in einem Stream serviert.

Gute Nacht^^

0
skiddy  13.04.2020, 11:43
@unsignedInt

Zur gestrigen Situation: Es stimmt, vielleicht mag ich Halbwissen haben. Ich habe überreagiert und sehe das auch ein. Du kannst dich gerne lustig über mich machen oder sonst irgendwas. Ich sehe ein, dass ich hier den Kürzeren gezogen habe.

Zur Frage:

Es wird eine Bitmap passend zur Auflösung des Bildschirm im Frame-Buffer aka Video RAM durch eine verschiedene Art von Rasterung erzeugt. Diese Bitmap enthält die gesamtem Informationen eines Frames. Bei der der Bildwiederholungsrate des Monitors wird angegeben wie oft in der Sekunde dieser Framebuffer aktualisiert wird. Demnach bei 60 Hz 60 mal in der Sekunde etc.

Die FPS beschreiben nur, wie oft die GPU den Framebuffer mit Bildern beliefern kann.

Anders gesagt:

Rasterung erfolgt -> Die GPU beliefert den Framebuffer mit den Frames -> Eine Bitmap wird gleich der Auflösung des Monitors generiert -> Der Monitor greift als "Stream" 60 Bilder in der Sekunde aus dem Framebuffer ab und zeigt diese.

Sollte ich nun in irgendeiner Weise falsch liegen, dann korrigiere mich bitte. Kann gut sein, dass ich mich auch an etwas falsches erinnere.

0
unsignedInt  13.04.2020, 18:04
@skiddy
Die FPS beschreiben nur, wie oft die GPU den Framebuffer mit Bildern beliefern kann.

Jedes berechnete Frame wird im Framebuffer abgelegt und ersetzt damit das vorherige, der Monitor nimmt keinen Einfluss darauf (sofern VSync nicht genutzt wird!). Die bspw. 60Hz beschreiben nur, wie häufig der Monitor pro Sekunde alle Pixel des Panels überschreibt. Kommt es während dieses Prozesses der Pixelüberschreibung zu Änderungen des Framebuffers (neues Bild wurde von der GPU gerendert), beginnt der Monitor natürlich damit, noch während der Bildschirmaktualisierung die aktuelleren Pixelnformationen von neu berechneten Bild abzugreifen und anzuwenden, wodurch es zu dem von dir bereits angesprochenen Tearing führt (Hälfte altes Bild/Hälfte neues Bild bspw.).
Nun ist es einfach so, dass Progamer (ob OP ein Progamer ist oder nicht, steht hier nicht zur Debatte!) viel lieber gute Latenzen und Reaktionszeiten haben wollen und dafür gerne(!) Tearing in Kauf nehmen.

Der Monitor greift als "Stream" 60 Bilder in der Sekunde aus dem Framebuffer ab und zeigt diese.

Was Du beschreibst, ist natürlich soweit richtig, allerdings nur, wenn man bspw. Vsync verwendet, da dadurch dieses Tearing verhindert wird; d.h. Der Monitor stellt jeden Frame vollständig dar, bevor es zu einer neuen Aktualisierung aller Pixel kommt. Wie gesagt spielt so etwas aber überhaupt gar keine Rolle bei competitive Gaming, da Latenz wichtiger als volle Bildwiedergabe ist. Spieler wie Shroud oder Aceu haben einfach keine Zeit, ein Bild vollständig rendern zu lassen, obwohl die Graka bereits ein aktuelleres Bild zur Verfügung gestellt hat.

Eine vertikale Synchronisierung verhindert bei  Grafikkarten eine Aktualisierung der Bilddaten, während der  Bildschirm  das Bild aufbaut.

https://de.wikipedia.org/wiki/Vertikale_Synchronisation

ich hoffe, das ist klar geworden. Und die ausfallende Sprache gestern Abend tut mir Leid, ich war einfach generell schlecht gelaunt.

0
skiddy  13.04.2020, 18:08
@unsignedInt

Nicht schlimm, war eher meine schlechte Herangehensweise. Danke für die Erklärung

0