PC-Grafik: Sind Hz und FPS das Gleiche?
In den meisten Antworten zu meiner letzten Frage gehen Hz und FPS lustig durcheinander. Sind bei der Beurteilung der Leistung eines Monitors Hz und FPS das Gleiche? Da wird langatmig der Unterschied zwischen 20 Hz und 60 Hz und 120 erklärt, aber von Frames ist nicht die Rede.
6 Antworten
Leider wird hier viel Halbwissen benutzt um diese Frage zu beantworten.
Also wie auch schon geschrieben: Es ist nicht das selbe.
Wenn du einen Monitor hast, der max. 60 Hz. Bildwiederholrate hat und er ist in Windows auch so eingestellt, dann stellt er 60 Bilder pro Sekunde dar. Egal wieviel deine Grafikkarte in der aktuellen Situation berechnen kann, z. B. nur Desktop von Windows oder ein extrem Leistungshungriges Spiel. Das was deine Grafikkarte berechnet und ausgibt, wird dann als FPS bezeichnet, also ebenfalls Bilder pro Sekunde (Frames per Second). Klingt jetzt gleich, ist es aber nicht:
Dein Monitor stellt wie gesagt alles mit 60 Hz dar. Wenn du in einem Spiel sowas wie VSync aktivierst, wird die Grafikkarte alle Bilder mit 60 FPS ausgeben, so lange sie dazu inder Lage ist, in dem Fall sind diese beiden Werte identisch. Wenn die Karte nicht genug Power hat, können das auch nur 30 FPS oder auch noch weniger werden. Dein Monitor stellt aber dennoch alles mit 60 Hz dar, was dann einem ruckelndem Bild führt. Anders ist es, wenn kein VSync aktiv ist, und die Karte kann z. B. 100 FPS erzeugen, hat man in den einzelnen Bilder zerissene Linien, da der Monitor sein Bild langsamer aktualisiert, als die Grafikkarte raus haut. Dann hat man mitten im Bild im obenen Teil ein altes Bild und ab der nächsten Zeile ein aktuelleres, die sich voneinander Unterscheiden könnne, es sein denn im Bildinhalt hat sich nichts verändert. Denn sowas fällt nur bei bewegung auf, bzw. wenn sich er Bildinhalt geändert hat. Dazu hier ein Bild: https://goo.gl/images/M9hZEJ
Naja, der Monitor ist in der Lage 60, bzw. 120 oder sogar 144 Bilder in der Sekunde darzustellen. Ich würde hier immer die Bezeichnung Hertz verwenden. Ob der Computer, bzw. dessen Graphikeinheit, bzw. das Videomaterial das nutzen, ist eine andere Frage. Ein Video mit 60 FPS (Frames pro Sekunde wird bei einem 120 Hz Monitor nicht besser aussehen, als auf einem 60 Hz Monitor.
Wenn der PC ein Spiel darstellt, schwanken die Framerates (FPS) je nach Spielsituation wenig oder viel, je nachdem wie viel berechnet werden muss. Ein starker Rechner kann vielleicht durchaus über 144 FPS kommen, dann wird auch ein solcher Monitor ausgenutzt. Aber wenn der PC weniger Bilder liefert, als der Monitor darstellen kann, hat man auch von einem solchen Monitor nicht viel. Hoffe das hilft.
Eine ganze Menge, denn es ist immer noch eine der besten Graphikkarten auf dem Markt. Genauer gesagt, kommt es darauf an, womit du sie "beschäftigst". Im Desktopbetrieb schafft sie locker die 144 oder wie viele auch immer dein Monitor darstellen kann. Bei Spielen kommt es vor allem auf die Graphikeinstellungen an. Hier bedeuten mehr Details und eine bessere Darstellung mehr Rechenaufwand, was in weniger Bildern resultiert, und weniger Details eine flüssigere Darstellung, denn es werden im gleichen Zeitraum mehr Bilder berechnet. Das ist aber auch bei jedem Spiel unterschiedlich. Manche Spiele erlauben es "Benchmarks" zu machen, d. h. sie lassen selbstständig ein paar Spielszenen ablaufen und sagen dir dann, wie hoch die FPS waren. Dann kannst du deine Einstellungen nochmal anpassen. Manche Spiele erlauben auch einen FPS-Counter, d. h. sie zeigen die FPS direkt während des Spielens an. Aber keine Sorge, du hast eine sehr schnelle Graphikkarte.
Das kann man nicht pauschal sagen. Das kommt immer darauf an, wie aufwändig das zu berechnende Bild ist. Kann also salopp gesagt zwischen 1 FPS und weit über 1000 FPS sein.
Was wäre dann euer Vorschlag: i9 + 2080? + Asus ROG Swift? Geld ist nicht so wichtig. Spiele GTA. Will 4K
Solche Infos kann man nicht genau vorher beantworten. Bestenfalls jemand, der eine ähnliche Konfiguration hat und es selber so bei ihm läuft.
Am besten ist es wohl, du schaust auf den Webseiten vorbei, wo andere Spieler Ihre Hardware Konfig in Verbindung mit dem Spiel posten. Da kann man deren Hardware, Auflösung, Grafik-Qualitätseinstellungen und die damit erreichten FPS nachlesen und daraus schlüsse ziehen, ob man damit das Ziel erreicht.
Es ist natürlich nicht dasselbe. Hz ist die Einheit der Frequenz. Eine Schwingung pro Sekunde ist ein Hertz.
Nur, wenn es um die Bildwechselfrequenz geht, läuft es auf dasselbe hinaus, weil dann eben ein angezeigtes Bild einem Frame der Animation entspricht.
Ja ist im Endeffekt das gleiche. Hertz kommt nur aus der Zeit bevor es Computer gab und man röhrenfernseher hatte.
Im Endeffekt heisst es aber Bilder pro Sekunde heutzutage.
Mit den alten röhrenfernsehern war es ja so das das Bild zeilenweise aufgebaut wurde. Und erst komplett zu sehen war wenn der Strahl einmal über den ganzen Bildschirm gewandert ist.
Mit heutiger Technik ist das nicht mehr wirklich von Nöten.
Auf jedenfall gibt es 2 Komponenten was die fps bei Computern angeht.
Einmal wieviele Bilder der Fernseher anzeigen kann pro Sekunde. Oft als hertz bezeichnet. Und einmal wieviele Bilder pro Sekunde der Rechner denn überhaupt liefert.
Der monitor liefert immer konstant seine 60 oder 144 oder sonst was an Bildern (also er frischt sie halt auf, im englischen auch als refreshrate bezeichnet die dann im Millisekunden angegeben wird)
Das Spiel bzw. Die Grafikkarte macht das nicht. Mal dauert es länger das Bild zu berechnen mal gehts schneller. Und in diesem Kontext redet man üblicherweise von fps.
Nachtrag:
Daraus ergibt sich das wenn die graka Scheller Bilder liefert als der monitor sie überhaupt anzeigen kann diese Bilder nutzlos sind.
Wenn die graka 300 Bilder pro Sekunde liefert. Der monitor aber nur 60 anzeigen kann dann siehste auch nur 60 Bilder in der Sekunde. Die restlichen 240 Bilder sind für die Katz.
Das stimmt leider nicht genau.
Ein Röhre zeigt immer an, was der Strahl "abtastet" Und das auch schon auf der 1. Zeile oder bei der hälfte des Bildes. Das Bild wird nicht erst angezeigt, wenn der Strahl "einmal" druch ist, sondern da wo der Strahl ist, leuchtet es sofort. Wenn eine Röhre mit 1 Hz betrieben wird, sieht man in einer Sekunde die Bildpunkte Zeilenweise von oben nach unten aufleuchten.
Ebeso ist es auch heute noch genau so nötig, das das Bild Punkt für Punkt und Zeile für Zeile aufgebaut wird. Nur es wird nicht durch einen Kathodenstrahl zum Leuchten gebracht.
Und die Bilder, die eine Grafikkarte oberhalb der Bildwiederholfrequenz des Monitors erstellt werden, sind nicht für die Katz. Sie werden mittendrin getauscht und das Bild somit zerissen, wenn eintsprechende Technik die das Verhindert nicht aktiviert oder vorhanden ist.
Jo du hast mit Absatz 1 recht. Das habe ich wohl falsch beschrieben. Aber ich meine genau das.
Zu Absatz 2: das habe ich vermutet. Aber wieso ist das heute nötig? Es sollte doch ein leichtes sein die LEDs etc. Gleichzeitig die farbe wechseln zu lassen.
Bei nem kathodenstrahl ist es klar verständlich wieso es nicht anders geht.
Absatz 3 korrekt. Nennt sich soweit ich weiss screen tearing insbesondere wenn mitten im Aufbau das Bild wechselt.
Schau dir mal an wie ein LED TV / Monitor aufbebaut ist. Deinem Satz nach vermute ich, das du denkst, das jeder Bildpunkt eine LED ist. Das ist aber nicht der Fall. Ein LED TV / Monitor hat lediglich weiße LEDs die den Hintergrund beleuchten, was bei den Vorgängern einfach nur dünne CCFL Leuchtröhren gemacht wurde. Es befinden sich keine bunten LEDs in einem LED TV / Monitor! Ausgenommen einige OLED Typen.
Das bunte Bild wird durch eine RGB Filter Matrix (oder damals Lochmaske) erzeugt in der, wie damals beim Röhren Fernseher, je ein Roter, Grüner und Blauer Filter sitzen. Davor sitzt ein TFT LCD Panel, das das Licht durchlässt oder Blockiert. Jeder Pixel muss einzeln nacheinander angesteuert werden, das ist auch der Grund warum es überhaupt die Bildwiederholrate noch gibt.
Das ganze ist nur durch Text viel zu schwer zu erklären. Zu dem groben aufbau ist hier mal ein Bild. https://goo.gl/images/gFiWbJ
Hallo,
Das gleiche ist es nicht.
Hz ist die frequenz oder einfacher ausgedrückt, die Aktualisierungsrate des monitors, also wie oft in der Sekunde das Bild aktualisiert wird.
FPS sind die Bilder pro Sekunde, die der PC berechnet.
Ein monitor mit 60 Hz kann 60 verschiedene Bilder pro sekunde darstellen, ein monitor mit 144hz 144 Bilder usw, ein PC aber weit mehr erzeugen.
Der Monitor stellt dann die Bilder dar, die zuletzt vor dem neuen Bildaufbau des monitors berechnet wurden.
Je mehr fps desto aktueller das zuletzt berechnete Bild.
Die Einstellung Vsync lässt den PC nur dann Bilder berechnen, wenn der Monitor diese auch darstellt.
Das kannste selbst mit einer 2080 Ti knicken, du wirst immer Spiele haben, in denen die Grafikkarte das nicht schafft.
Also bei TomHardware haben die getestet und mit einer 1080 Ti und 4K Auflösung kommen die bei GTA V nicht mal auf 55 FPS.
Nein da kommst du niemals hin. Habe grad n Benchmark gefunden, mit einer RTX2080 Ti Founders Edition in 4K Auflösung, nichtmal 65 FPS werden erreicht.
Wie viel Bilder pro Sekunde kann meine GTX 1080TI liefern?