2te Grafikkarte nutzen?

3 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Nein, das lohnt sich absolut nicht.

Im SLI/X-Fire Betrieb kann man nur GPU der selben Architektur verwenden, weiter ist es fraglich ob die 1060 überhaupt über einen SLI-Anschluss verfügt. Da SLI/X-Fire keinerlei Beachtung mehr erhält werden viele Karten gleich gar nicht erst damit unterstützt.

Um deinen alten Monitor aber verwenden zu können genügt es einen passenden Adapter zu wählen, in deinem Fall also wohl HDMI auf DVI.


BlackRabbit740 
Fragesteller
 08.10.2022, 00:51

Dieses SLI/XFire ist dringend notwenig dafür? Kann das Mainboard nicht seperat auf die Karten zugreifen je nach Leistungsaufnahme?

0
olfinger  08.10.2022, 01:03
@BlackRabbit740

Zwingend erforderlich ist es nicht, aber beim Betrieb von zwei getrennten Grafikkarten hat man trotzdem mit ein paar Komforteinbußen zu kämpfen. Der Betrieb mehrerer Monitore an einer Grafikkarte ist da deutlich komfortabler und bei heutigen Grafikkarten fällt das kaum ins Gewicht.

Wenn du eine zweite separate GPU verbaust und darüber einen zweiten Monitor betreiben möchtest bedeutet das auch, dass du eine zweite, zusätzliche Lärm-/ und Wärmequelle im System stecken hast. Das ganze kommt natürlich auch mit zusätzlichem Strombedarf einher und der ist es absolut nicht wert da du beide Monitore auch einfach über deine 3060Ti problemlos betreiben kannst.

Die Kosten für so einen Adapter sind relativ gering und schaut man sich die heutigen und künftigen Energiepreise an kommt man mit dem Adapter sehr bald deutlich günstiger.

Wenn du beide Monitore nutzen möchtest steck beide an die 3060Ti, dass ist am einfachsten, komfortabelsten und langfristig betrachtet auch am günstigsten.

Zum Thema Kosten vielleicht auch eine Überlegung ob es nicht vielleicht sinnvoller wäre den alten Monitor zu entsorgen und dafür einen neuen zu kaufen. Moderne Monitore haben (je nach Größe und Auflösung) einen relativ überschaubaren Stromverbrauch, da kann sich eine Neuinvestition langfristig als günstiger erweisen, als weiterhin einen alten Stromfresser zu betreiben.

Ich hatte bspw. den Fall das ein recht alter (war da schon gut 10 Jahre alt) 24" FHD so viel Strom benötigt hat wie zwei neue 27" FHD. Darum hab ich jetzt auch zwei 27" über meinem 34" hängen anstatt einen alten 24" daneben stehen.

Der Stromverbrauch sollte immer auch berücksichtigt werden. Zugegeben, ich mache das gewiss nicht aus Gründen des Umweltschutzes, aber ganz besonders in meinem Geldbeutel muss es passen und da lohnt es sich häufig Altgeräte durch neue zu ersetzen da sich die Kosten für Neugeräte aufgrund des Strompreises häufig in einem sehr überschaubaren Rahmen amortisieren.

0
BlackRabbit740 
Fragesteller
 08.10.2022, 01:15
@olfinger

Ja das stimmt, das ist auch das was ILM321 geschrieben hatte zwecks dem Geld für den Prozessor..

Ich benutze als Hauptmonitor einen Acer ED322Q 32" Curved der ist auch schon aus Oktober 2017 laut Herstellerlabel.

Und als Nebenmonitor den NEC MultiSync EA223WM 22"

Hast du da Empfehlungen für Monitore? Eventuell lohnt sich auch 4K für den neuen Rechner zwecks RTX? Habe ja aktuell nur 1080p auf dem Acer. Oder macht das gar kein großen Unterschied?

0
olfinger  08.10.2022, 03:35
@BlackRabbit740

Eine direkte Empfehlung auf einen speziellen Monitor kann ich dir leider nicht geben, dafür bin ich da mit den aktuellen Modellen einfach nicht informiert genug.

Grundsätzlich gilt es aber zwei Fragen zu klären, die eine wäre die bevorzugte Monitorgröße denn daraus ergibt sich dann häufig auch die empfohlene Auflösung. Die zweite wäre wie viele Bilder pro Sekunde (FPS) du in Spielen angezeigt haben möchtest, danach gerichtet entscheidet sich dann wie viel Hz das Panel des neuen Monitor haben soll.

Pauschal kann man für die Größe folgendes sagen:

Bei Größen bis 24" sind Full-HD noch brauchbar. Full-HD ist in der heutigen Zeit natürlich kein Reißer mehr, aber für viele genügt auch das weiterhin und schlecht aussehen tut es deshalb ja auch nicht.

Bei Größen über 24", also ab 27" sollte man mindestens auf WQHD zurückgreifen. Der Grund dafür liegt in der Pixeldichte, bei FHD ist diese zu gering und bei 27" kann man dann je nach Abstand zum Monitor einzelne Pixel erkennen. Das macht das Bild unnötig schlecht und sollte vermieden werden.

Ab WQHD ist die Pixeldichte hoch genug das man auch bei relativ geringer Distanz keine einzelnen Pixel erkennt, selbst bei größeren Bildschirmen.

Also gilt kurz gesagt: Bis 24" F-HD oder höher, ab 27" mindestens WQHD oder höher.

Es gibt neben WQHD auch noch UWQHD (Ultra-Wide) und weiter auch 4k, mittlerweile auch vereinzelte mit 8k.

Lohnt sich 4K? Das hängt ganz davon ab was man möchte. In meinen Augen ist 4K-Gaming noch zu "unrentabel" und nur für jene brauchbar, die unbedingt auf 4K gehen wollen und bereit sind das nötige Kleingeld dafür auszugeben.

Ich zocke auf meinem 34" UWQHD mit 100Hz-Panel und bin sehr zufrieden damit. Klar, 144Hz wäre nochmal einen Ticken geiler, aber mir war Bildqualität wichtiger als Bildwiederholfrequenz weshalb ich die Leistung lieber in höhere Details als FPS stecken möchte. Die Langlebigkeit der Hardware war mir auch wichtig da ich nicht jedes Jahr auf die neueste Generation wechseln möchte, sondern frühestens alle 5 Jahre.

Was jetzt dich und 4K betrifft rate ich dir davon ab, dafür hast du die falsche Grafikkarte verbaut. Um 4K wirklich brauchbar auf den Schirm zu bekommen und auch genießen zu können braucht man nicht unter einer 3080 anzufangen, besser eine 3080Ti. Die 3060 und auch die 3060Ti sind hervorragend für FullHD geeignet, auch WQHD ist damit noch gut drin. Alles was aber darüber geht übersteigt den geplanten Zweck der Grafikkarte und da würde die 3070 (und auch Ti) besser rein passen.

Die 3060Ti ist so an sich gewiss keine schlechte Karte, aber für 4K ist sie einfach zu schwach und das insbesondere auch in Kombination mit RTX.

Wenn du dir einen neuen Monitor kaufen möchtest sollte man natürlich auch ein wenig die Zukunft im Hinterkopf behalten, aber da würde ich aktuell auf WQHD (bzw. UWQHD wer es breit will) setzen und dann lieber ein schnelleres Panel zwischen 144Hz und 240Hz. Es gibt auch Panel mit mehr Hz, aber ab 240Hz wird es schwer bis unmöglich da dann noch einen Unterschied nach oben zu erkennen.

Unter 100Hz würde ich aber keinen Monitor mehr kaufen wollen, es ist auch zum Arbeiten beiweitem Angenehmer als mit einem 60Hz-Panel. WQHD mit 144Hz entwickelt sich aktuell zum Standard und löst FHD immer weiter ab.

Auch wenn ich dir keine direkte Empfehlung geben konnte hoffe ich dir ein wenig geholfen zu haben. Falls ich Verwirrung gestiftet habe werde ich das natürlich gerne korrigieren. :-)

1

Eine Entlastung bringt dir das nicht. Du kannst die theoretisch dazu stecken um den alten Monitor zu betreiben aber wer Geld für ein i9 12900k hat kann auch bissl was für nen gescheiten Monitor der keine 15 Jahre auf dem Buckel hat ausgeben. Oder man nehme einfach ein HDMI zu DVI Adapter Kabel und gut ist.


BlackRabbit740 
Fragesteller
 08.10.2022, 00:56

Ja wie gesagt der dient nur als SideMonitor für Überwachung der Komponenten beim Zocken. Ja der ist glaube sehr alt ist ein NEC MultiSync EA 233WM.

0
ILM321  08.10.2022, 00:57
@BlackRabbit740

Dann würde ich den einfach per Adapterkabel anschließen. Eine extra Grafikkarte bringt nix außer höheren stromverbrauh. Da kannst die Karte besser für 50€ oder so auf Kleinanzeigen oder eBay verkaufen

2
BlackRabbit740 
Fragesteller
 08.10.2022, 01:01
@ILM321

Klingt nach einer guten Lösung. Trotzdem vielen dank für die Infos :D

Dann besorge ich mir so einen Adapter.

1

Sli geht nur mit gleichen Karten . Problem : mikroruckler etc