Frage von nosh11, 124

Rx 480 vs r9 390nitro saphire?

Ich bin jetzt öfters auf die Aussage gestoßen das die bald rauskommende rx 480 besser (und billiger) als die r9 390 Nitro Saphire sein soll. Was ist da dran?

LG Noah

Antwort
von Parhalia, 53

Die momentan verfügbaren Infos und Vorabtests deuten für die RX 480  wirklich auf DAS hin, was Du momentan hörst.

 - Das neue Fertigungsverfahren dieses Grafikchips wird wirklich bei 14 - 16 Nanometern statt bisher 28 NM liegen. Das ermöglicht geringere Leckströme wegen der dort aktuellen "Fin-FET" - Technologie der Transistoren im jeweiligen Substratübergang. Und nehmen wir weitere Analogien auch aus Nvidias Produktion z.B. der GTX 1080 beim gleichen Hersteller und gleicher Fertigungstechnologie, so dürfte sich alleine schon DAS was in etwa an reduzierten Leckströmen zwischen GTX 980(Ti) bei gleichzeitig erhöhtem "Referenztakt" prozentual auch auf AMD's Grafikprozessoren grundlegend auswirken. 

 - AMD dürfte zudem grundlegend auch die Effizienz seiner Grafikprozessoren ähnlich wie Nvidia deutlich gesteigert haben, was z.B. Anzahl der Ausführungseinheiten in ihrer relativen Auslastung gegenüber den hauseigenen Vorgängerprodukten bei weniger Aufwand in der Anzahl von Transistoren betrifft. Blicke einfach mal zurück auf den Generationensprung Nvidias von der GTX 6xx / 7xx / "Titan 1 " auf die 970 / 980.

Weniger Ausführungseinheiten bei weniger Transitoren und schmalerem Speicherinterface effizienter und relativ höher getaktet in der Grossserie ausgelastet.

 - Diesen Sprung KÖNNTE AMD nun für seine eigenen Grafikchips insbesondere auf Basis der ( momentan ) aktuellsten Chips R9-285 = R9-380 mit höherem Takt und 4 statt 2GB dann alleine in sich effizienztechnisch verbessern. ( ähnlich wie Nvidias Sprung von "Kepler"( GTX 6XX / 7XX ) auf "Maxwell" ( GTX 9XX ) Aus weniger Shadern und schmalerem Speicherinterface deutlich mehr Effizienz und resultierende Praxisleistung herausholen bei ansonsten ( in diesem Vergleich ) noch vergleichbarer Fertigungsstrukturen.

Was spricht also dagegen, dass AMD nun sogar noch einen etwas grösseren Sprung in Sachen Chipeffizienz macht als Nvidia, wenn man die bisherige Entwicklung deren Chips seit der HD 7950 & 7970 alias R9-280 & 280 X und DAN R9-285 und 380 /380X bislang untereinander vergleicht. 

Was spricht daher gegen die Leistungsprognosen einer RX 480 vs R9-390 bei leicht erhöhten Shader-Units gegenüber der ursprünglichen R9-280X / 380X mit etwa 25 - 30 % ehrhöhter ( REFERENZ- ) Taktung, schnellerem GDDRX 5 - Speicher bei zwar 1/3 bis 1/2 geringerer Nennbandbreite, aber deutlich gesteigerter Effizienznutzung just DIESER Bandbreite gegenüber den eigenen Vorgängern.

WAS soll also dagegensprechen für AMD, nicht jetzt annähernd DAS mit einer Klappe zu schlagen in seinen eigenen Grafikprodukten, was Nvida von der GTX 780 Ti über die GTX 980 ( selbst der 980Ti ) zur aktuellen GTX 1080 bereits gelang ?

Ich  persönlich bin sehr zuversichtlich, dass AMD's angekündigte RX 480 in etwa DAS halten wird, was man ihr aktuell auch vorab "unterstellt". ( einfach mal diesbezüglich "dranbleiben" ) 

Antwort
von TechNox13, 63

Definitiv! Die 480 soll zwischen der 980 und der 970 liegen nur halt für 200€

Kommentar von HenrikHD ,

Die Soll teilweise bei der Fury liegen.

Kommentar von Parhalia ,

Mal nicht übertreiben. Aktuell spricht man von einer resultierenden Praxisleistung in etwa zwischen der R9-390 ( non X ) und der 390X / GTX 970 für die RX 9- 480 jeweils im Vergleich der "Referenzdesigns" untereinander.

Kommentar von TechNox13 ,

Jo

Antwort
von OnezeZ, 67

Einiges! VIEL weniger Stromverbrauch und günstiger.... Im Crossfire sogar angeblich besser als ne 1080...

Kommentar von sonicdragolgo ,

lol

Kommentar von TechNox13 ,

nein das nicht

Kommentar von mick27 ,

Doch technox

Kommentar von dermitdemhund23 ,

Betonung liegt auf angeblich. So ein Quatsch... Da hat AMD (!) einen Benchmark veröffentlicht wo 2x 480 3 mehr FPS hatten als die 1080 in DX12. Optimiert war das Spiel natürlich nur für AMD, aber das macht ja nichts.

Kommentar von groygroy ,

Macht NVIDIA schon seid Jahren so

Keine passende Antwort gefunden?

Fragen Sie die Community

Weitere Fragen mit Antworten