Zweiter Monitor besser über Grafikkarte oder Integrierte GPU?
Hallo,
momentan konfiguriere ich meinen nächsten PC und stehe vor der Frage: Welche Anschlussmöglichkeit meines zweiten Monitors ist (theoretisch) effektiver?
Neben meinem Primärmonitor habe ich einen sekundären ausschließlich für Sachen "nebenher", also Browser/YouTube, Explorer, Office-Anwendungen – was man eben mal so offen hat. Gaming läuft ausschließlich über den Hauptmonitor.
Der Hauptmonitor wird selbstverständlich über die Grafikkarte versorgt.
Für den Zweitmonitor gibt es zwei Möglichkeiten:
1.) Anschluss ebenfalls über die Graka. Bedeutet: Von der GPU werden Ressourcen für den Betrieb des zweiten Monitors aufgewendet. Vermutlich vernachlässigbar, aber in der Theorie ja eben dennoch so.
2.) Anschluss über integrierte Grafik der CPU. Die Grafikkarte wäre damit ausschließlich für die Grafik auf Monitor 1 frei und müsste sich nicht mit dem "Kleinkram" abgeben. Dafür ist nun aber die integrierte GPU der CPU dran – und reserviert Ressourcen der CPU, sprich: Statt der Graka wird dafür nun die CPU in Anspruch genommen.
Die Frage ist wahrscheinlich sehr theoretisch und im Alltag wird es wohl keinen spürbaren Unterschied geben. Dennoch: Welcher dieser zwei Wege ist wohl ressourcensparender, oder: Womit mache ich es dem System im Ganzen einfacher?
Ergänzung: Das führt dann letztendlich auch zur Entscheidung: Intel Core-Prozessor mit (K-Suffix) oder ohne Integrierte GPU (KF-Suffix).
Danke für eure Antworten!
4 Antworten
Hallo,
bitte beide Monitore an die Grafikkarte anstecken.
Der Grafikkarte macht das nicht viel aus,
die hat genügend Ressourcen.
Sowas macht eine einigermaßen gute Grafikkarte nebenbei.
An der CPU werden die Temperaturen steigen,
so dass sie dann heruntertakten könnte.
Hansi
GPU, alles andere macht keinen Sinn.
Außerdem ist es eigentlich gar nicht möglich neben einer GraKa noch paralell eine integrierte GPU zu nutzen.
Danke! Aber: Doch, ist es. Mache ich bei meinem jetzigen System so, da an meiner jetzigen Grafikkarte der zweite Anschluss mal aufgegeben hat. Die Option muss das BIOS dann aber entsprechend hergeben, daran scheitert's manchmal.
Grundsätzlich immer an die GPU.
Die integrierte Grafikeinheit kann unter Umständen die Leistung der Ausgänge der Grafikkarte beeinträchtigen. Weiß jetzt nicht ob das nur bei ner bestimmten Konstellation von Hardware der Fall ist oder generell. Beim Kollegen konnte deswegen ein Monitor über die GPU nicht mehr mit 144 Hertz angesteuert werden (is ne weile her weiß nemme 100% obs dann 120 oder 60 Hertz waren).
An die Graka. Für Dinge wie Browserfenster etc vollkommen ok. Braucht kaum leistung.
Ja, dass das kaum ein Unterschied sein wird, ist klar. Meine Frage ging mehr so in die Richtung: Wenn ich in 13 Jahren mal mit Resident Evil 17 die GPU zum Rauchen bringe, wäre ich dann vielleicht froh, dass ich den zweiten Monitor nicht auch noch dran habe, oder zeigt mir dann die CPU nicht sowieso den Mittelfinger... :)
Ne passt schon. Beim streamen von Videos etc wird ja kaum rechenleistung benötigt. Beim Gaming ist es ja eine völlig andere Art von Arbeit. Hier müssen die frames gerendert werden. Beim videos gucken liegt ja bereits fertig gerendertes Material vor.
Natüelich, wenn man eine GTX1060 hat und was aufwendiges zocken möchte mit Maximalen settings, 4k und 144Hz, kann man natürlich überlegen ob man den 2. Bildschirm aussteckt. Aber ob das 1% dann noch den Unterschied macht.. hm
Ja, da hast du schon Recht... Danke! :)
Kannst ja leicht testen: GPU Programm auf, Browser, YT, etc öffnen. Braucht vielleicht 1% Leistung je nach Power der Hardware