Werden zukünftig Computerspiele fotorealistisch KI-generiert sein, sodass keine leistungsfähige Grafikkarte mehr nötig ist?

Nein 84%
Andere Antwort 12%
Ja 4%

25 Stimmen

9 Antworten

Nein

Um fotorealistische Grafiken zu erstellen, braucht selbst eine KI eine gute Grafikkarte. Vor allem, wenn es in Echtzeit geschehen soll.

Andere Antwort

Ich habe wegen deiner Frage mal im Internet recherchiert, aber ich glaub, du hast da etwas nicht beachtet. Ich hab aber selbst erstmal gezweifelt. Aber nach der Recherche muss ich sagen, dass es zwar immer bessere Technik auch KI-technisch geben wird. Um aber diese immenzen Grafikdaten darstellen zu können, braucht es trotzdem eine gute Grafikkarte, die diese ganzen Bilddaten verarbeiten kann. Also KI wird die Grafikkarte nicht ersetzen, weil KI ein Computerprogramm (also Software) ist und eine Grafikkarte die Hardware ist, die diese ganzen Spieldaten verarbeiten muss.

Die Technik ist (mein aktueller Wissenstand, kann sein, dass es sich verändert hat), dass die Grafikkarte quasi Zwischenschritte bei bewegten Bildern von selbst berechnen kann, um die Videosequenz flüssiger darzustellen, aber ich bin da leider technisch nicht so ganz informiert, wie das jetzt genau funktioniert. Irgendwie sowas, dass, wenn z.B. ein Charakter springt (sagen wir mal 4 Bilder, dann hat die Software anteilig Sequenz 1 und 3 und dazwischen wird von der Grafikkarte der Sequenz 2 und 4 berechnet. Das ist jetzt aber Laienhaft ausgedrückt.

Man will damit quasi Daten der Software kompakt halten und die Darstellung auf dem Bildschirm "flüssiger" darstellen (gerade bei hoher FPS)

Also kurz gesagt: KI wird selbstverständlich genutzt, um Grafiken realistischer darzustellen, aber die Grafikkarte wird zur Unterstützung und, um das auf dem Bildschirm anzeigen zu können, immer gebraucht. Der Nachteil ist, dass die Grafikkarten, wenn sie technisch so ausgereift werden, auch sehr viel kosten werden und es mit schwächeren Grafikkarten wahrscheinlich nicht so realistisch dargestellt werden kann, bzw. die Auflösung nicht in 4k oder darüber dargestellt werden kann, weil die Leistung der Grafikkarte nicht ausreicht.

Andere Antwort

Eine GraKa wird wohl immer nötig sein.

Aber ja, man kann gut davon ausgehen, dass KI in Zukunft auch bei Computerspielgrafik zum Einsatz kommen wird.

Ein Beispiel. Hier ein Ausschnitt aus einem Zombie survival Game namens Projekt Zomboid.

Das Spiel an sich ist sehr umfangreich, hat aber Grafik auf Sims 1 Niveau.

Dort wurde mit Hilfe von KI ein Filter drüber gelegt.

https://youtu.be/UGDz1WHJdu8?si=r0FDg0RDOQSlhTpd

Ich gehe davon aus, in nicht zu ferner Zukunft, wird ähnliches auch live möglich sein.

LG.

Nein

Für eine fotorealistische Grafik, braucht eine KI eine gute Grafikkarte. Also ohne Grafikkarten läuft da nichts!

Nein

Du kannst nicht jede Bildansicht im Vorraus berechnen... das wären viel zu viele Möglichkeiten und Daten.

Die Grafikkarte (mit Beschleuniger) "baut" dir ja im Prinzip das Bild zusammen... Eine Wand im Abstand von 3 Einheiten, auf die du schräg drauf schaust mit Textur xyz. Wenn du dich jetzt drehst, sieht sie anders aus - das berechnet die Grafikkarte.

Mit KI könntest du jetzt nur eine Ansicht vorberechnen... Oder du würdest KI zusammen mit der Grafikkarte einsetzen. Als Bestandteil der Grafikkarte wird das sicherlich kommen.

Dass ein KI-Teil im PC alleine die Grafik berechnet eher nicht... dazu müsste der KI-Teil extrem stark sein... Eine Grafikkarte/Grafikeinheit würdest du trotzdem brauchen, um die Daten auf den Monitor auszugeben.