Eigentlich ist es ja ein Baukasten der es eben den Nutzern selbst erlaubt, Spiele unterschiedlichster Art zu konstruieren. Die Qualität ist daher von mies bis A+ total variabel, das macht Roblox auch so besonders.

Diejenigen die es haten, vergleichen Roblox mit A++ Titeln wie vielleicht GTA, Minecraft oder auch Fortnite - aber das ist es ja nicht, oftmals sitzen keine Profis dahinter, die sich um diese Minispiele kümmern! Und die einfache Grafik soll das konstruieren eben simpel halten.

Und ich würde auch wie die Vorredner sagen; spiele was Dir gefällt, es gibt unterschiedliche Geschmäcker.

...zur Antwort
Ja

Gespielt von Anfang an, sogar noch in komplett englischer Form.

Das war damals DAS Online-Rollenspiel schlechthin, mit individuellem Character, der sich durch Erfahrung auch individuell entwickeln konnte. Die Möglichkeiten im Spiel sind vielfältig und PvE als auch PvP sind möglich. Schon recht fesselnd wenn einem das Thema gefällt (Mittelalter, Orks usw.) - da aber Warcraft 1 & 2 eher unbekannt sind und ohne weiteres nicht mehr unter 64Bit (ab Win7) lauffähig sind, gerät die Story wohl nach und nach ins Vergessen.

Meine Kinder sind begeistert, für die "heutige Jugend" sind die Quests wohl oft zu langatmig, da sind moderne MMORPG's wohl actionreicher und hektischer, WoW wird zunehmend sicherlich an Wert verlieren.

...zur Antwort

Da schließe ich mich meinen Vorrednern an, mit einer GTX 1050 Ti (egal ob 2GB oder 4GB) lässt sich in Full HD 1080p Fortnite brauchbar spielen - die Einstellungen sollte man eher Richtung low setzen und je nach Prozessor den Performance Mode aktivieren.

Nutze selbst rein aus Spaß einen alten i7-860 mit einer GTX 760 als auch GTX 960 und spiele immer auf einem 24" Monitor in 1080p bei niedrigsten Einstellungen (aber 100% 3D Auflösung) und ggf. mittleren Texturen... 60-70 FPS und mehr sind drin (bei der GTX 960 sogar mit TAA).

...zur Antwort

Hi, der Monitor benötigt einen durchgeschliffenen Anschluss, also z.B. Displayport-Eingang und einen Displayport-Ausgang. Dort kann dann ein weiterer Displayport-Monitor angeschlossen werden.
Wenn Du nur HDMI am Notebook hast, musst Du ein Adapterkabel nutzen, das kann u.U. aber die Frequenzen durch Medienwechsel beeinflussen. Schau auf jeden Fall ein modernes gescheites Kabel zu benutzen!

Wie mein Vorredner @triopasi auch gesagt hat, glaube ich bei so vielen Monitoren nicht dran, dass ALLE mit der hohen Frequenz zu betreiben gehen. Da gibt es auch Beschränkungen seitens der Grafikkarte! Das müsste man beim Hersteller recherchieren was Dein Chip maximal unterstützt -> mach das lieber vorher damit Du nicht enttäuscht bist im Nachgang (weil ggf. nur 60Hz möglich sind)

...zur Antwort

Ja je nach Standards und Auflösung kann es eine technische Limitierung geben.

Oftmals ist 60 oder 7x Hz als Standardfrequenz eingestellt, auch wenn der Monitor mehr unterstützt. Die höheren Frequenzen muss man meist händisch auswählen. Wir haben z.B. einen Acer mit 100Hz, der per default auf 60Hz stand und 71, 75, 85 als auch 100Hz optional anbietet.

In den Anzeigeeinstellungen bzw. alternativ im Nvidia Controlcenter kannst Du nicht explizit eine höhere Frequenz auswählen?

...zur Antwort

Und bist Du schon besser geworden? 😁

Weil meine Kinder auch gerade ein kleines Fortnite-Fieber haben... nicht jedem liegt die Mausnutzung (am PC) oder das Gamepad/Controller. Je nachdem was Du nutzt, vielleicht mal umsteigen auf andere Eingabegeräte (oder einfach bessere hochauflösendere Gamingmaus?).

Deine Hardware inkl. Monitor unterstützen wenigstens ruckelfreies Spielen mit Blick auf mehr als nur 60Hz/FPS? Man kann sicherlich mit einem Büromonitor brauchbar zocken, aber Profis sind überzeugt von stabilen und synchronen 100+ Bildern pro Sekunde. Deine Reaktion wird dadurch besser umgesetzt, was bei solch einem schnellen Spielgeschehen durchaus den kleinen Vorteil bringt.

...zur Antwort

Mit der Otto-Kiste und der darin befindlichen 4070 lässt sich natürlich auch in 4k spielen, man sollte die Latte nicht immer unnötig hoch hängen. Es gibt außer 'ultra' Einstellungen in Spielen auch kaum sichtbare niedrigere Einstellungen.

Den i9 würde ich tatsächlich auch eher durch i7 oder Ryzen ersetzen, das kommt einem stimmigen System näher. Wie von @Gnurfy erwähnt.

Preis/Leistung stimmt bei Otto nicht so ganz, meine Empfehlung wäre der Eigenbau oder eine Hardwareschmiede wie Alternate, Mindfactory oder der lokale Store in Deiner Nähe.

...zur Antwort

Was hier vielleicht noch erwähnt werden sollte ist die Tatsache, dass früher Spiele sehr hardwarenah programmiert und optimiert wurden. Das jedoch benötigt Zeit und diese ist bei Entwicklung eines Spiels eh schon immer knapp, richtig gute aufwendige Spiele brauchen mehrere Jahre zur Entwicklung und Qualitätssicherung!

Daher nimmt man es in Kauf, den kleinen Teil von Leuten mit schwacher Hardware zu verlieren bzw. zu einem Upgrade 'zu zwingen', weil die Zocker eh oft auf aktuelle PC's scharf sind und förmlich drauf warten, nach 2-3 Jahren ihre Kiste mal wieder aufzustocken 😁

Das Schöne muss man aber auch erwähnen; oftmals laufen Spiele mit reduzierter (aber trotzdem noch ansehnlicher) Grafik auch auf älteren PCs, das muss man dann einfach ausprobieren. Und gerade mit dem noch gängigen 24" in Full-HD 1080p kann man Cyberpunk, Fortnite usw. auch mit einem 10 Jahre alten System (Stand jetzt: i7 2nd/4th gen + 16GB + GTX970/1060) noch brauchbar nutzen und Freude haben. Und da sind ~150€ für solch ein Gebrauchtgerät auch keine Ausrede.

...zur Antwort
Weitere Inhalte können nur Nutzer sehen, die bei uns eingeloggt sind.