Nein!

Wenn diese Aliens genau wie die Menschheit evolutionär entstanden sind, dann sollten sie wissen, dass es sich kaum verhindern lässt, dass Lebewesen im Laufe der Evolution Gefühle wie Neid, Machtwille, Gier, Missgunst etc. entwickeln, die zu besagten Problemen führen.

...zur Antwort

Das hängt davon ab, wie weit man die Definition von Weltsprache auslegt.

Meiner Ansicht nach ist Englisch die einzige wirkliche Weltsprache, da es die einzige ist, mit der man weltweit einigermaßen weit kommt und welche die meisten Personen aus vielen entwickelten Ländern halbwegs passabel beherrschen.

Andere häufig als Weltsprache bezeichnete Sprachen wie Französisch, Portugiesisch, Russisch, Hindi, Mandarin und Arabisch bringen einem außerhalb der 1 oder 2 Kontinente, auf denen diese je nach Region mal mehr, mal weniger gut und viel gesprochen werden, herzlich wenig. Spanisch kommt dabei m. E. noch am ehesten an den Status einer Weltsprache ran, auch wenn es dennoch weit von der internationalen Verbreitung und Wichtigkeit von Englisch entfernt ist.

...zur Antwort

Ich konnte den Hype um die Plattform auch noch nie nachvollziehen.

Ich habe die App selbst nie installiert gehabt, jedoch einige Videos im Browser gesehen, die mir von Freunden geschickt wurden, und bin für mich zum Schluss gekommen, dass ich die TokTok-Community für eine der seltsamsten halte, die es auf einer Online-Plattform überhaupt gibt. Das meine ich noch nicht einmal unbedingt negativ; wenn andere Nutzer sich für die Inhalte auf dieser Plattform begeistern können, ist das fein. Ich kann es nur überhaupt nicht nachvollziehen.

Ich meine, die 4chan- und Reddit-Communities haben auch manchmal ihre Eigenarten und erscheinen möglicherweise für den ein oder anderen seltsam, aber immerhin kann man bei diesen in 99,9% der Fälle einen Sinn bzw. eine Motivation für das Veröffentlichen und Diskutieren ihrer Beiträge erkennen. Was hingegen der Sinn hinter einem TikTok-Video sein soll, in dem eine Person für 15 Sekunden ihr Gesicht in die Kamera hält, panisch rein- und rauszoomt und dabei völlig erratische Bewegungen macht, während ein seltsamer Song im Hintergrund spielt, muss mir irgendjemand mal ganz genau im Detail erklären.

Ganz davon abgesehen, dass, selbst wenn die Mehrheit der auf TikTok veröffentlichten Inhalte halbwegs einen Sinn ergeben würden, sie für mich immer noch totlangweilig wären: Bei dermaßen kurzen Inhalten kommt bei mir einfach null Spannung auf. Ein paar Sekunden Wiedergabelänge reichen für mich nicht ansatzweise aus, um eine Interesse für oder gar "Bindung" zum jeweiligen Content Creator aufzubauen, und zur reinen Informationsbeschaffung ist TikTok aufgrund von zu viel Halbwissen, Fehlinformationen, fehlender Quellenangaben und falsch dargestellter Sachverhalte aufgrund mangelnder Hintergrundinfos und -zusammenhänge leider schon dreimal nicht geeignet.

...zur Antwort

Ich habe genau dasselbe Problem und bisher noch keine Möglichkeit gefunden, die ungefragte Aktivierung des Effizienzmodus für einige Anwendungen ein und für alle mal zu deaktivieren. Dass das so überhaupt voreingestellt ist und eine Deaktivierung entweder nicht vorhanden oder enorm gut versteckt ist, ist einfach nur grauenhaft.

Diese Bevormundung seitens Microsoft ist wirklich das allerletzte, da sie betroffene Anwendungen spürbar langsamer macht und damit kaum dazu beiträgt, das System "effizienter" zu machen, sondern die Performance einfach nur völlig lahmlegt.

Was ist der Sinn dahinter, absolute High-End-PCs mit 24 CPU-Kernen, 64 GB RAM, RTX 4090 und Hochgeschwindigkeits-M.2-SSDs so stark runterzudrosseln, dass man sich fragt, warum man überhaupt so einen fetten Rechner neben sich stehen hat, wenn er durch diesen albernen, (de facto) erzwungenen Effizienzmodus in einigen Anwendungen teilweise so performt wie ein 10 Jahre alter Schullaptop? Das hat mit "Effizienz" nichts zu tun, sondern lässt mich ernsthaft darüber nachdenken, zurück auf Windows 10 zu downgraden.

...zur Antwort

Es kann je nach Spiel vereinzelt zu visuellen Artefakten wie z. B. Rauschen kommen, da die KI dahinter manchmal kein passendes Zwischenbild errechnen kann, das zu den zwei nativ davor und danach gerenderten Bildern angemessen passt.

Außerdem kann sich die Eingabeverzögerung inkonsistent und dadurch seltsam anfühlen, da zwar die Framerate im Idealfall durch KI-erzeugte Zwischenbilder effektiv verdoppelt wird, die Inputs jedoch nicht parallel dazu interpoliert werden. Beispiel: Die Grafikkarte rendert 30 Bilder pro Sekunde nativ und durch Aktivieren von Frame Generation wird die Bildrate durch künstliche Zwischenbilder auf 60fps angehoben. Die Eingabeverzögerung ist dann nach wie vor äquivalent zu 30fps. Ergebnis: Das Spiel sieht nun wie 60fps aus, spielt sich aber immer noch wie mit 30fps.

...zur Antwort
USA

Freier: Ganz klar Deutschland, und zwar mit großem Abstand und unabhängig davon, welche Maßstäbe man anlegt.

Besser: Subjektiv, m. M. n. USA.

Das Verständnis von Freiheit in Deutschland ist, tun und lassen zu dürfen, was man will. In den allermeisten anderen Ländern, einschließlich USA, versteht man darunter eher das Freisein von unerwünschten Zuständen, und dieses Konzept halte ich gesamtgesellschaftlich für deutlich sinnvoller.

...zur Antwort
4TB

Eine 4TB-NVMe-SSD, auf der aktuell noch knapp 2TB frei sind, weil ich keine HDDs mehr in meinem (Haupt-)PC haben will.

War eindeutig die richtige Entscheidung, da wahnsinnig schnell und leise, und 4TB war m. E. auch eindeutig kein Overkill. Selbst 8TB fände ich, insbesondere im Hinblick auf Zukunftssicherheit, nicht vollkommen absurd.

Alles unter einer 2TB-SSD ist wie ich finde 2024 für einen anständigen Desktop-PC einfach nicht mehr zeitgemäß.

...zur Antwort
sind dass Einzelfälle

Per Definition ja, denn längst nicht jede Raptor-Lake-(Refresh-)CPU ist davon betroffen. Soweit ich weiß, sind i9 mit Abstand am häufigsten betroffen, i7 seltener und i5 so gut wie nie.

Insgesamt wird die mediale Berichterstattung das Problem wohl gemessen daran, wie viele CPUs tatsächlich betroffen sind, stark überrepräsentieren, was auch zurecht der Fall ist, sollte so etwas doch gar nicht passieren.

nur bei Unreal Engine 5

Unreal-Engine-5-Spiele sind mit am häufigsten davon betroffen, insbesondere beim Starten soll oft die Meldung "Out of VRAM" auftauchen, da bei der Shader-Kompilierung die CPU viel für die GPU leisten muss. Das bedeutet jedoch nicht, dass eine solche Meldungen zu 100% sicher auf problematische CPUs hindeuten muss, es kann auch einfach ein Bug sein.

Findet das ihr es ist ein grosses Risiko?

Ich kann dazu nur sagen, dass ich mit meinem 14900K seit Dezember 2023 keine Probleme hatte und auch das BIOS-Update mit korrigiertem Microcode, dessen alte Version für die beschleunigte Alterung verantwortlich gewesen sein soll, installiert habe. Ich würde deshalb Stand heute davon ausgehen, dass ich von dem Problem nicht betroffen bin.

Für Neukäufer gilt: Wenn man noch keine Raptor-Lake-(Refresh-)CPU hat und vor hat, sich eine zu kaufen, muss man sich darüber keine Sorgen machen, sofern man das BIOS-Update direkt am ersten Tag aufs Mainboard spielt.

Besitzern einer betroffenen CPU, die also instabil ist und abstürzt, bleibt nichts anderes übrig, als diese umzutauschen, da die durch den fehlerhaften Microcode verursachte Alterung irreversibel ist.

Denjenigen, die eine haben und bislang noch keine Auffälligkeiten bemerkt haben, sollten das BIOS-Update installieren und sich vorerst keine Sorgen machen, zumal Intel die Garantie der potenziell betroffenen Modelle um 2 Jahre auf insgesamt 5 Jahre verlängert hat.

Warum berichten YouTuber nicht darüber.

Es berichten sowohl im englisch- wie auch deutschsprachigen Raum dutzende YouTuber darüber.

...zur Antwort

Die RTX 4080 Super ist dank ihrer viel höheren Raytracing-Leistung, DLSS-Unterstützung, weiteren Nvidia-exklusiven Features, hoher Effizienz (FPS pro Watt) und niedrigen Betriebstemperaturen m. E. das bessere und modernere Gesamtpaket.

Auf die 3-5% mehr Rohrechenleistung der RX 7900 XTX bei reiner Rasterisierung kommt es auch nicht wirklich an, und auch wenn sich die 24GB VRAM der XTX toll anhören, sollten 16GB locker für 1440p ausreichen, und in 4K mit Raytracing bei entsprechend hohen Grafikeinstellungen wird der 4080 Super ohnehin früher die Leistung als der Grafikspeicher ausgehen (was nicht heißt, dass die 4080 Super keine 4K-Karte sei, in modernen Spielen reichen 16GB VRAM für 4K noch in den meisten Fällen; ich beziehe mich hierbei auf die Zukunftssicherheit).

Würden beide Karten gleich viel kosten, und die RTX 4090 wäre keine Option, würde ich deshalb wohl eher zur 4080 Super als zur 7900 XTX greifen.

...zur Antwort

Die RTX 4080 Super ist dank ihrer viel höheren Raytracing-Leistung, DLSS-Unterstützung, weiteren Nvidia-exklusiven Features, hoher Effizienz (FPS pro Watt) und niedrigen Betriebstemperaturen m. E. das bessere und modernere Gesamtpaket.

Auf die 3-5% mehr Rohrechenleistung der RX 7900 XTX bei reiner Rasterisierung kommt es auch nicht wirklich an, und auch wenn sich die 24GB VRAM der XTX toll anhören, sollten 16GB locker für 1440p ausreichen, und in 4K mit Raytracing bei entsprechend hohen Grafikeinstellungen wird der 4080 Super ohnehin früher die Leistung als der Grafikspeicher ausgehen (was nicht heißt, dass die 4080 Super keine 4K-Karte sei, in modernen Spielen reichen 16GB VRAM für 4K noch in den meisten Fällen; ich beziehe mich hierbei auf die Zukunftssicherheit).

Würden beide Karten gleich viel kosten, und die RTX 4090 wäre keine Option, würde ich deshalb wohl eher zur 4080 Super als zur 7900 XTX greifen.

...zur Antwort
RTX 4080 Super (Bitte begründen)

Die RTX 4080 Super ist dank ihrer viel höheren Raytracing-Leistung, DLSS-Unterstützung, weiteren Nvidia-exklusiven Features, hoher Effizienz (FPS pro Watt) und niedrigen Betriebstemperaturen m. E. das bessere und modernere Gesamtpaket.

Auf die 3-5% mehr Rohrechenleistung der RX 7900 XTX bei reiner Rasterisierung kommt es auch nicht wirklich an, und auch wenn sich die 24GB VRAM der XTX toll anhören, sollten 16GB locker für 1440p ausreichen, und in 4K mit Raytracing bei entsprechend hohen Grafikeinstellungen wird der 4080 Super ohnehin früher die Leistung als der Grafikspeicher ausgehen (was nicht heißt, dass die 4080 Super keine 4K-Karte sei, in modernen Spielen reichen 16GB VRAM für 4K noch in den meisten Fällen; ich beziehe mich hierbei auf die Zukunftssicherheit).

Würden beide Karten gleich viel kosten, und die RTX 4090 wäre keine Option, würde ich deshalb wohl eher zur 4080 Super als zur 7900 XTX greifen.

...zur Antwort

Die RTX 4080 Super ist dank ihrer viel höheren Raytracing-Leistung, DLSS-Unterstützung, weiteren Nvidia-exklusiven Features, hoher Effizienz (FPS pro Watt) und niedrigen Betriebstemperaturen m. E. das bessere und modernere Gesamtpaket.

Auf die 3-5% mehr Rohrechenleistung der RX 7900 XTX bei reiner Rasterisierung kommt es auch nicht wirklich an, und auch wenn sich die 24GB VRAM der XTX toll anhören, sollten 16GB locker für 1440p ausreichen, und in 4K mit Raytracing bei entsprechend hohen Grafikeinstellungen wird der 4080 Super ohnehin früher die Leistung als der Grafikspeicher ausgehen (was nicht heißt, dass die 4080 Super keine 4K-Karte sei, in modernen Spielen reichen 16GB VRAM für 4K noch in den meisten Fällen; ich beziehe mich hierbei auf die Zukunftssicherheit).

Würden beide Karten gleich viel kosten, und die RTX 4090 wäre keine Option, würde ich deshalb wohl eher zur 4080 Super als zur 7900 XTX greifen. Bei 200€ Aufpreis musst du selbst entscheiden, ob dir besagte Vorteile das Geld wert sind.

...zur Antwort

Wenn es um Benchmarks und Spieletests geht, bei denen die reine Gamingleistung der CPU zu 100% isoliert von allen anderen Anwendungen und Faktoren betrachtet wird, dann ist es in den meisten Spielen eindeutig der Ryzen 7 7800X3D.

Schön und gut. Das "Problem" hierbei ist, dass dies unter absurd unrealistischen Bedingungen der Fall ist, nämlich wenn das Spiel mit frischer Windows-Installation ohne jegliche laufende Hintergrundsoftware mit einer RTX 4090 in 720p auf niedrigsten Grafikeinstellungen läuft, und in diesem Szenario erreicht man ohnehin mit fast jedem Mittelklasse-Prozessor der aktuellen Generation so viele FPS, dass 10, 20 oder 30 Bilder mehr oder weniger in der Sekunde auch keinen spürbaren Unterschied mehr machen werden. Das ist für >99,9% der Nutzer etwa so realitätsfern und uninteressant wie dass man möglicherweise mit einem bis ans Limit übertakteten 14900KS mit 8000-MHz-RAM, High-End-Enthusiasten-Mainboard und Custom-Wasserkühlung noch minimal mehr Gaming-Leistung als mit einem 7800X3D rausholen kann.

Hat man hingegen während dem Spielen mehrere Monitore angeschlossen, lädt Updates herunter, hat Virenscans, Hintergrundmusik und weitere Hintergrundanwendungen am Laufen, hat einen oder mehrere Browser mit ein paar Tabs geöffnet, schaut sich während dem Spielen noch nebenbei ein YouTube-Video oder Twitch-Stream an oder redet mit Freunden über Discord, dann wird ein Ryzen 9 7950X3D oder i9-14900K die klar flüssigere Nutzererfahrung bieten, weil der 7800X3D hier mit seinen 8 Kernen langsam an seine Grenzen stößt. Klar, diese alternativen CPUs sind deutlich teurer, aber Power-User, die ihren PC lange, häufig und intensiv nutzen, werden auch eindeutig mehr von ihnen haben, und selbst für Durchschnittlichsnutzer könnte der Aufpreis durchaus sinnvoll sein, da man, wenn man seinen PC als PC statt als reinen Konsolenersatz nutzt, mittelfristig eher die Mehranzahl der Kerne und Threads merken wird als 10 FPS mehr bei 720p auf niedrigsten Grafikeinstellungen mit einer RTX 4090.

So beeindruckend die reine Gaming-Leistung des 7800X3D für seinen Preis auch ist, erscheint er in Anbetracht all dessen doch überteuert für eine lausige 8-Kern-CPU. Und bevor ihr denkt, ich habe die Frage missverstanden ('Beste Gaming-CPU' statt 'Beste Allrounder-/Multitasking-/Produktivitäts-CPU'): Nein, ich behaupte nämlich nicht nur, dass der Vorsprung des 7800X3D in Spielen lediglich marginal ist, sondern explizit, dass ein 14900K oder 7950X3D in einem durchschnittlichen modernen PC mit diversen laufenden Hintergrundanwendungen mehr Gaming-Leistung liefern wird als ein 7800X3D, da im Falle des 14900K diese ganzen Anwendungen schön auf die 16 niedrig getakteten E-Cores aufgeteilt werden können, während die 8 höher getakteten P-Cores für anspruchsvollere Anwendungen wie Spiele reserviert sind und ansonsten weitestgehend frei bleiben.

Zu Intels Instabilitätsproblemen kann ich nur sagen, dass ich mit meinem 14900K bislang keine Probleme hatte und auch das BIOS-Update mit neuem Microcode installiert habe. Ich würde deshalb Stand heute davon ausgehen, dass ich von dem Problem nicht betroffen bin, und kann jedem, der noch keine Auffälligkeiten bemerkt hat, nur empfehlen, das BIOS-Update durchzuführen und sich vorerst keine Sorgen zu machen, zumal Intel die Garantie der potenziell betroffenen Modelle um 2 Jahre verlängert hat. Ich für meinen Teil bin mit meinem 14900K mehr als zufrieden, und durch sinnvoll eingestellte Power Limits kann tatsächlich auch ein solches Hochleistungs-24-Kern-32-Thread-Monster einigermaßen leise und effizient bei gleichzeitiger Beibehaltung einer hohen Leistung laufen.

Kurzum: Ja, der 7800X3D bietet die durchschnittlich höchste synthetische Gamingleistung, und falls man wirklich vor hat, seinen PC quasi ausschließen zum Spielen und für fast nichts anderes gleichzeitig zu verwenden und einem jeder einzelne Frame heilig ist, wird man mit dieser CPU auf seine Kosten kommen. Power-User und Enthusiasten, die ihren PC neben Gaming für alles mögliche intensiv nutzen, greifen hingegen lieber zum Ryzen 9 7950X3D oder 14900K.

...zur Antwort

Wenn es um Benchmarks und Spieletests geht, bei denen die reine Gamingleistung der CPU zu 100% isoliert von allen anderen Anwendungen und Faktoren betrachtet wird, dann ist es in den meisten Spielen eindeutig der Ryzen 7 7800X3D.

Schön und gut. Das "Problem" hierbei ist, dass dies unter absurd unrealistischen Bedingungen der Fall ist, nämlich wenn das Spiel mit frischer Windows-Installation ohne jegliche laufende Hintergrundsoftware mit einer RTX 4090 in 720p auf niedrigsten Grafikeinstellungen läuft, und in diesem Szenario erreicht man ohnehin mit fast jedem Mittelklasse-Prozessor der aktuellen Generation so viele FPS, dass 10, 20 oder 30 Bilder mehr oder weniger in der Sekunde auch keinen spürbaren Unterschied mehr machen werden. Das ist für >99,9% der Nutzer etwa so realitätsfern und uninteressant wie dass man möglicherweise mit einem bis ans Limit übertakteten 14900KS mit 8000-MHz-RAM, High-End-Enthusiasten-Mainboard und Custom-Wasserkühlung noch minimal mehr Gaming-Leistung als mit einem 7800X3D rausholen kann.

Hat man hingegen während dem Spielen mehrere Monitore angeschlossen, lädt Updates herunter, hat Virenscans, Hintergrundmusik und weitere Hintergrundanwendungen am Laufen, hat einen oder mehrere Browser mit ein paar Tabs geöffnet, schaut sich während dem Spielen noch nebenbei ein YouTube-Video oder Twitch-Stream an oder redet mit Freunden über Discord, dann wird ein Ryzen 9 7950X3D oder i9-14900K die klar flüssigere Nutzererfahrung bieten, weil der 7800X3D hier mit seinen 8 Kernen langsam an seine Grenzen stößt. Klar, diese alternativen CPUs sind deutlich teurer, aber Power-User, die ihren PC lange, häufig und intensiv nutzen, werden auch eindeutig mehr von ihnen haben, und selbst für Durchschnittlichsnutzer könnte der Aufpreis durchaus sinnvoll sein, da man, wenn man seinen PC als PC statt als reinen Konsolenersatz nutzt, mittelfristig eher die Mehranzahl der Kerne und Threads merken wird als 10 FPS mehr bei 720p auf niedrigsten Grafikeinstellungen mit einer RTX 4090.

So beeindruckend die reine Gaming-Leistung des 7800X3D für seinen Preis auch ist, erscheint er in Anbetracht all dessen doch überteuert für eine lausige 8-Kern-CPU. Und bevor ihr denkt, ich habe die Frage missverstanden ('Beste Gaming-CPU' statt 'Beste Allrounder-/Multitasking-/Produktivitäts-CPU'): Nein, ich behaupte nämlich nicht nur, dass der Vorsprung des 7800X3D in Spielen lediglich marginal ist, sondern explizit, dass ein 14900K oder 7950X3D in einem durchschnittlichen modernen PC mit diversen laufenden Hintergrundanwendungen mehr Gaming-Leistung liefern wird als ein 7800X3D, da im Falle des 14900K diese ganzen Anwendungen schön auf die 16 niedrig getakteten E-Cores aufgeteilt werden können, während die 8 höher getakteten P-Cores für anspruchsvollere Anwendungen wie Spiele reserviert sind und ansonsten weitestgehend frei bleiben.

Zu Intels Instabilitätsproblemen kann ich nur sagen, dass ich mit meinem 14900K bislang keine Probleme hatte und auch das BIOS-Update mit neuem Microcode installiert habe. Ich würde deshalb Stand heute davon ausgehen, dass ich von dem Problem nicht betroffen bin, und kann jedem, der noch keine Auffälligkeiten bemerkt hat, nur empfehlen, das BIOS-Update durchzuführen und sich vorerst keine Sorgen zu machen, zumal Intel die Garantie der potenziell betroffenen Modelle um 2 Jahre verlängert hat. Ich für meinen Teil bin mit meinem 14900K mehr als zufrieden, und durch sinnvoll eingestellte Power Limits kann tatsächlich auch ein solches Hochleistungs-24-Kern-32-Thread-Monster einigermaßen leise und effizient bei gleichzeitiger Beibehaltung einer hohen Leistung laufen.

Kurzum: Ja, der 7800X3D bietet die durchschnittlich höchste synthetische Gamingleistung, und falls man wirklich vor hat, seinen PC quasi ausschließen zum Spielen und für fast nichts anderes gleichzeitig zu verwenden und einem jeder einzelne Frame heilig ist, wird man mit dieser CPU auf seine Kosten kommen. Power-User und Enthusiasten, die ihren PC neben Gaming für alles mögliche intensiv nutzen, greifen hingegen lieber zum Ryzen 9 7950X3D oder 14900K.

...zur Antwort

Weil es immer eine beträchtliche Menge an Leuten gibt, die bereit sind, für das objektiv beste Produkt seiner Klasse viel Geld auszugeben, sei es, weil Geld für sie keine Rolle spielt, für sie der Nutzen überwiegt, es ihr Hobby ist und sie diesem eine enorm hohe Priorität beimessen etc.

Es gibt auch Leute, die sich jedes Jahr das neueste iPhone Pro Max oder Samsung Galaxy S Ultra in der Vollausstattung für knapp 2000€ kaufen oder für mehrere Tausend Euro im Monat ein Auto leasen, und das sind statt Reichen womöglich sogar häufiger Personen der Mittelschicht, die sich dafür in anderen Lebensbereichen einschränken, als man denkt.

Verglichen damit halte ich 1500€ für eine Grafikkarte zumindest noch für potenziell sinnvoll, denn im Gegensatz zu einem Smartphone kann die brachiale Leistung je nach dem, was man auf welcher Auflösung und auf welchen Grafikeinstellungen spielt, auch tatsächlich genutzt werden. Mit einem 2000€ teuren Smartphone wird man hingegen wohl kaum um Welten besser telefonieren, schreiben, Videos schauen und im Internet surfen können als mit einem 400€-Smartphone.

...zur Antwort