Warum ist AMD so ineffizient und Stromhungrig?

7 Antworten

kritisieren darf man ja auch, aber vllt sollte man sich auch etwas über den aufbau und die technischen unterschiede informieren wenn man schon so auf den putz hauen will.

die vega56 braucht im schnitt 200 watt mittlerer durchschnitsverbrauch. das sind n paar watt mehr als nvidias karten das stimmt. hat aber auch technische gründe.
was deine aussage angeht das eine vega56 karte eine 500watt psu killt.... also sorry das sehe ich als eher fragwürdige aussage. vor allem wenn du meinst das die karte sogar undervolted ist. und vega64 karten mit 3 x 8pol power pcie habe ich noch nie gesehen oder nur was von gehört.

Ryzen1500x  14.03.2019, 12:32

Das ist keine fragwürdige Aussage mit dem Netzteil sondern mehr als nur sch..e labern wovon man Null Ahnung hat.

1
mapexmarspro  14.03.2019, 14:03
@Ryzen1500x

Massiv. Ich habe n tr4 1950x OC auf 4,1ghz 32gb RAM und 2 Asus Vega 64 strix OC und merke mal so garnix von dem moppelmist den der da redet.

0

Weil sie nicht in der Lage sind, Karten zu bauen, die auf Augenhöhe mit den entsprechenden nVidias sind, aber unbedingt deren Leistung erreichen wollen, damit sie in den Benchmarks nicht 5% schlechter dastehen. Heißt, sie holen die OC-Keule raus. Versteh einer deren Logik.

Eine Vega 64 ist bis auf ein paar Prozent hier und da gleichauf mit einer GTX 1080 (ich nehme extra die zum Vergleich, da die 2070 damals noch nicht draußen war), verbraucht aber locker 100W mehr. Dass die AMDs auch effizient sein können, zeigen die Ergebnisse beim Undervolting. AMD hätte jetzt sagen können, okay, wir trimmen die Vega auf Effizienz und sind dann am Ende 5-8% oder so langsamer als die 1080. Das haben sie aber nicht gemacht. Nein, sie haben die Keule rausgeholt und die Vega 64 auf Gedeih und Verderb auf ein Level mit der 1080 geprügelt.

Das ist auch nicht nur ein Problem der Vega, das war schon bei HD 7970 GHz Edition vs. 680, R9 290X vs. 780 Ti und Fury X vs. 980 Ti der Fall. Im Grunde ist es auch bei der RX 580 vs. 1060 so und bei der bekloppten RX 590 erst recht.

Ryzen1500x  14.03.2019, 12:31

Naja bei der rx580 ist das eher weniger der Fall ich hatte selber die 580 8gb Pulse und kam nie über 160w obwohl 225 w Verbrauch gegeben war und ich spielte alle Spiele auf 1440p ultra mit spielbaren FPS und die Karte wurde voll ausgelastet

0
ReellCS  14.03.2019, 13:03
@Ryzen1500x

Alle Bechmarks belegen dass die RX580 unter Vollast (z.B. Battlefield 1 Ultra) 80W mehr als die 1060 6GB verbraucht.

80W * 3h/Tag * 365 * 3 Jahre Garantie * 0,32€/kWh = 84€ MEHR Stromverbrauch

1
Saftsack19  14.03.2019, 13:12
@ReellCS

Das stimmt, wobei ich zugegeben von den Verbrauchsrechnungen nicht viel halte, da da immer sehr viele "wenns" reinspielen. Ändert aber nix an der Tatsache, dass die RX 580 deutlich mehr als eine 1060 braucht.

0
mapexmarspro  14.03.2019, 14:46
@ReellCS

in benchmarks steht ne menge drinne... sehr oft und sehr viel, sag mal machst du dir auch selber gedanken zu dein einzelnen kausalitäten die zu besagten und von dir hier besungenen ergebnissen führen? hast du überhaupt wirklich ahnung von mikroelektronischen baugruppen und schalt vin halbleiter/schaltkreistechnik, oder fisselst du dir den kram den du hier wieder gibst aus irgend welchen synthetischen leistungstests und fragwürdigen bzw semifachlichen artikeln aus dem netz?

ich habe einen amd threadripper 1950x, das ding habe ich auf 4,115ghz getrimmt und der verbraucht unter volllast ca 236 bis 251 watt. ich habe 32gb 3200mhz im quadchannel laufen die saugen auch ganz ordentlich... und komm jetzt nicht mit "nein ram braucht kaum strom" oder so nem verbalen gurkenwasser! es gibt nichts in modernen rechnern, egal ob advanced von neumann oder harvard architektur, das mehr strom braucht in relation zum ausbau als elektrisch flüchtiger speicher aus 1c1t kippstufenlogik. von monoflipflops und für cache memorys mal ganz abgesehen. man kann sich hier also vorstellen das die dinger auch recht hingrig sind. ich habe ein tr4 gigabyte x399 designare ex. der chipsatz braucht richtig saft... schon alleine weil das ding volle 64 pcie lanes in absolutem vollausbau befeuert. vom restlichen io hub controller und den subsystemen reden wir jetzt mal nicht. und jetzt kommen wir zum schluss mal auf meine grafikkarte(n) zusprechen. ja ich habe mehr als eine. es sind 2 amd asus vega 64 strix oc 8gb in vollaplikation!

  1. ist diese aussage das amd karten keine leistung in relation zu nvidia karten haben getrocknete und gepresste krümelkagge. die dinger haben sogar mehr rechenendleistung als vom hersteller angegeben. beide im verbund paralel betrieben haben eine simple precision leistung von fast 26482gigaflops. wenn ich die mal einfach rechnen lasse dann brennt die api.
  2. unter maximaler last und maximalem gpu load haben die karten einen pro gerät verbrauch von ~ ca 241 watt. in spitzen kann mal eine auf 260 watt hoch springen. das ist der spitze spitze wert. dabei werden die dinger auch nicht so wirklich viel lauter als sie sollten. man sollte hierbei auch daran denken das unter dieser beanspruchung karten heiß werden, daher ist eine gewisse lautstärke ok.
  3. die hitze ist ebenfalls erträglich. wo ja alle rum jammern das die karten so unfassbar heiß werden. stimmt nur bedingt. ich hab schon nv karten auf 103°c gebracht und amd auf 105°c. ich habe lang und oft nv karten gekauft und betrieben. im single und im dual betrieb... ja sogar ein mal im triple verbund. jedes mal war das rotze! und da braucht mir auch keiner jetzt kommen mit "ja das ist weil und baum und blech und filtermatte!" das liegt daran das nvidia seine urpsrüngliche multi gpu link technik vin 3dfx übernommen und bis jetzt vor kurzem nie was eigenes entwickelt, geschweige denn es aktuell gehalten hat. biete ich eine multi device lösung für bestimmte zwecke an kann es nicht sein das ich da so mit ins klo greife weil ich kb darauf habe. da hat amd schon mit den hd3870 bessere ergebnisse gebracht. seit der 290x in jedem fall sehr viel bessere. nvidia bekommt es erst seit neustem hin mal mit nvlink eine brauchbare cross fetch bus lösung zu liefern.
  4. gehst du in deiner kalkulation davon aus das jeder seinen rechner am tag ca 3 std brachial im absoluten volllastmodus fahren lässt. nicht mal wenn man was spielt das die karte an den rand ihrer leistungsgrenzen führt ist das auch nur ansatzweise realistisch.
  5. und meine karten brauchen im idle betrieb mit persistenter kühlung 6 bis 8 watt master und <5 watt slave karte, ich habe ein
  6. ich habe ein bq dark power pro 11 platin 1200watt. das ding hat einen durchschnittlichen wirkungsgrad der bei 91 bis 93 % ansiedelt. die systemische spitzenlast liegt hier bei ca 70 bis 80% der nominalen maximalwirkung. das liegt grob im 800 watt bereich. die kiste braucht wenn ich sie brutal trete und mit boinc richtig auslaste.. alles... cpu und alle 16 kerne und 32 threads. den speicher und beide gpus mit gpgpu voll nutze ca 880 bis 910 watt. und das sind ganz andere dinger als so n kleiner fan boy der von objektiver bewertung spricht und sich hier irgendwelche wilden märchen zu seiner vega56 aus dem bart saugt.
1
mapexmarspro  14.03.2019, 14:57
@ReellCS

ach ja, hast du auch mal selber gemessen und ergründet, oder hast du all deine informationen aus dem internet die du hier so selbstsicher als absolut und korrekt wieder gibst? du solltest vllt bedenken das benchmarks von professioneller seite oft unter laborbedingungen ausgeführt werden. da werden zum teil total unrealistische bedingungen simuliert und maximale spitze spitze werte gemessen um das verhalten einzelner hoch integrierter schaltkreise unter den unmöglichsten bedingungen zu ermitteln. das sowas kaum ernstzunehmende ergebnisse für normalnutzer liefert ist wohl klar und muss nicht erst hoch kontrovers erstritten werden.

das bisschen uri da in deiner sptromkostenkalkulation ist auch nicht auf den nutzerfall anwendbar weil es pauschalisiert.

und wenn man sich mal mit der ic architektur der vega karten und ihrer vorgänger befasst merkt man ganz fix das es keine klassischen gpus sind, sondern soc's. das führt hier zu ganz anderen grundbedingungen, denn ein SoC ist kein normaler und gebrächlicher integrierter schaltkreis wie man ihn sonst in einem pc so kennt. die haben vor und auch nachteile, so wie alles. aber das man sie hier ohne selber mal nach zu messen so verteufelt ist ein zeichen von unprofessionellem verhalten und voreingenommenheit. ich renne ja auch nicht rum und sage "nvidia ist müll!!!" das sind die dinger nämlich absolut nicht.

1

Im Bezug auf den Wirkungsgrad von Grafikkarten hinkt AMD tatsächlich Nvidia seit etwa 4 Jahren mit Einführung der Nvidia Geforce 900 - Reihe hinterher.

Ein Grund dafür liegt seit AMDs Radeon HD 7000 - Reihe ( GCN 1.0 ) in der Packdichte der Transistoren auf dem Silizium-Substrat. Hier bringt AMD bei gleicher Strukturbreite deutlich mehr Transistoren pro mm2 auf dem Silizium unter , als Nvidia . Das bietet zwar einerseits den Vorteil kleinerer , und dadurch günstigerer Grafikchips in der Fertigung , hat dabei aber den Nachteil der höheren Leckströme im Substrat mit zunehmender Spannung , zunehmendem Takt und zunehmender Temperatur gegenüber Nvidias Fertigungsstrukturen seit der GTX 900 - Reihe.

Diese Unterschiede in der Packdichte von Transistoren pro mm2 wirken sich auch entsprechend auf die Taktbarkeit der Grafikchips aus. Alles in allem verschlechtert die erhöhte Transistor - Packdichte die Chip - Eigenschaften im Bezug auf Taktrate und Leistungsaufnahme schon mal um etwa 20 - 25 % . Das ist aber immer noch ein niedrigerer Faktor als der wirtschaftliche Gewinn durch die erzielte Verringerung der Chipgrösse im Verhältnis zur Transistoranzahl pro Fläche .

Grob umgerechnet muss AMD seit GCN 1.0 damit in etwa 30 % mehr Ausführungseinheiten auf den Chip pressen um alleine den Taktnachteil gegenüber Nvidia in der Rechenleistung ungefähr auszugleichen. ( und dieses nur rein rechnerisch im Vergleich einer Radeon HD 290X vs GTX 980 in der mittleren Spieleleistung zum ungefähren Gleichstand )

Aus dem bisher gesagten ergibt sich dann ein weiteres Problem : Je mehr Ausführungseinheiten ein Grafikchip besitzt, umso schwieriger wird es, diese Ausführungseinheiten in Spielen auch optimal auszulasten. Dieses Problem hat aber grundlegend auch Nvidia bis heute noch , da Spiele nun mal keine kontinuierlichen Datenströme für die Berechnung durch die GPU generieren. Bei besser optimierten Datenströmen ( z.B. bei CAD , GPGPU und vergleichbarer Berechnungsarten ) können AMD - Karten mit vielen EUs ihre wahre Stärke ausspielen.

Ein weiteres Manko an dem AMD gerade bei seinen Grafikkarten knabbert, findet seine Analogien im CPU - Bereich zwischen den Modellreihen AMD Phenom I / II und AMD FX : man konnte in dieser Zeit mit diesen Architekturen die Rechenleistung pro Kern & Mhz nicht signifikant steigern. Das gelang erst mit der komplett umgekrempelten Architektur von ZEN.

Kleiner Abschweifer : AMD Ryzen arbeitet in Anwendungen teilweise effizienter ( Rechenleistung pro Watt ) als Intels 8th. Gen Core i .

Was AMD bei Prozessoren mit dem Sprung von Bulldozer auf ZEN bei Rechenleistung und Effizienz gelang , fand bei Nvidia eine ungefähre Analogie mit dem Sprung in zwei Schritten der Architekturveränderung von Kepler ( Geforce 600 / 700 ) zu Maxwell ( Geforce 900 ) und dann in einem kleineren Schritt zu Pascal ( Geforce 1000 ).

AMD hingegen doktort mit Polaris und Vega quasi immer noch an der steten Optimierung einer inzwischen etwa 4 Jahre alten Architekturmodifikation ( Tonga = Radeon R9 - 285 ) als Basis herum . Tonga seinerseits ist ein leicht modifizierter Ableger der GCN 1.0 - Architektur Tahiti ( Radeon HD 7x00 ) . Die grösste Änderung von Tonga gegenüber Tahiti lag in der Verbesserung des Speichermanagements, was ohne grosse Leistungseinbussen eine Reduktion der Speicheranbindung von vormals 384 Bit ( Tahiti ) auf 256 Bit bei Tonga ermöglichte.

Neben dem kontinuierlichen Schrink von erst 28 nm - Strukturen ( GCN 1.0 ) auf 16 / 14 nm seit Fiji ( AMD Fury - Serie ) gab es seither eigentlich immer nur kleinere Verbesserungen in der Effizienz und und insbesondere der Taktbarkeit dieser alten Basis - Architektur.

Im direkten Vergleich der Wirkung dieser kleine Verbesserungsschritte taktet die

AMD RX 570 - 4GB im Mittel ab Werk um etwa 30 % höher als die Radeon R9 - 380X bei jeweils gleicher Anzahl an Ausführungseinheiten und etwa 10 - 15 % geringerer Leistungsaufnahme. ( Im Vergleich der jeweiligen AMD - Referenzmodelle ) . Eine signifikante Erhöhung der Rechenleistung pro Mhz wurde bei gleicher Anzahl an Ausführungseinheiten in der Spielepraxis alleine durch die Architektur bei vielen Spielen nicht erreicht.

Vieles ist aber auch Treiberarbeit und eine Sache hat AMD da noch etwas verschlafen : Nvidia beherrscht seit der Geforce 900 - Architektur die Möglichkeit, in Spielen nicht sichtbare Gitter - / Texturinformationen effizient aus dem GPU - Renderpfad herauszurechnen und das muss damit erst garnicht berechnet werden. Das ersparte der GPU je nach Grafik - Engine der einzelnen Spiele schon durchaus bis zu etwa 30 % Rechenleistung gegenüber der älteren Kepler - Generation ( Geforce 600 / 700 ) .

Vega 64 und Vega 56 beherrschen dieses Feature prinzipiell auch erstmals bei AMD, aber an tatsächlicher Funktion und Wirksamkeit mus hier noch gearbeitet werden.

Übrigens : Die Radeon R9 Nano liess sich per Voltage - / und Powertarget - Optimierung seinerzeit bei etwa 900 Mhz GPU auf eine vergleichbare Effizienz und Leistung einer Nvidia Geforce GTX 980 im Referenzdesign trimmen. Der Haken an der Sache lag in dem Umstand, dass die R9-Nano mit 4096 EUs dabei genau doppelt so viele Ausführungseinheiten wie die GTX 980 mit ihren 2048 Cuda - Cores benötigte .

Zuerst mal... deine vorhergehenden Fragen haben schon so ziemlich etabliert, daß Du einfach trotz veraltetem Käsenetzteil eben eine Hochleistungskarte gekauft hast. Soviel dazu. Das soll jetzt kein Angriff sein, sondern ist einfach Fakt.

Der vergleichsweise höhere Stromverbrauch bei AMD hat 3 Gründe:

Erstens ist es hauptsächlich eine ökonomische Frage. Die Standardspannung aller AMD-GPUs ist sehr hoch eingestellt, weshalb der erste und wichtigste Schritt für jeden AMD-Nutzer erstmal undervolten ist. Ab dann ist jede AMD-GPU zwar nicht gut, aber unauffällig im Stromverbrauch.

Warum ist das so? Nicht jeder Chip ist gleich gut, vor allem bei einem neuen Prozeß wie eben 7nm. Eine hohe Spannung sorgt dafür, daß auch nicht so gute Chips zufriedenstellend performen. Das heißt im Umkehrschluss, daß die große Masse der GPUs mit mehr Spannung als nötig beschickt werden. Die einzige Alternative wäre es, die Spannungslimits jeder GPU ab Werk einzustellen, was aber nicht wirtschaftlich machbar ist.

Zweitens ist das einfach eine Eigenart der Architektur, die AMD nun schon einige Jahre verfolgt, GCN. Um es sehr einfach auszudrücken, folgt die diese Architektur dem Gedanken eines Dragsters - rohe Power, wenig Finesse. In roher Rechenleistung ist eine RX580 ca. 40% stärker als eine GTX1060. Diese Power will versorgt werden.

Das Problem entsteht dann nur darin, daß es schwierig ist, diese Leistung bei AMD überhaupt auf die "Spielestraße" mit all ihren Kurven und Schotterwegen zu kriegen. Nvidia hat es - aus vielen Gründen, die jetzt zu weit führten - einfach besser drauf, diese Leistung in der Praxis abrufbar zu machen.

In der Stromrechnung macht sich das übrigens nicht dramatisch bemerkbar; je nach Intensität des Spielens sind das ~5-20€ im Jahr.

Navi bringt jetzt noch ein letztes mal GCN auf 7nm, mal schauen, was das wird. Für danach soll AMD eine neue Architektur verwenden.

Jetzt mal auf CPUs bezogen:

Das Argument hat mal vor einigen Jahren gegolten, wo AMD Intel technologisch unterlegen war. Notebooks mit AMD- Prozessor waren wegen ihrer kurzen Akkulaufzeit grottig.

Aber das gilt schon lange nicht mehr. Vielleicht auch deshalb, weil AMD nur mehr noch Chips entwickelt und andere fertigen lässt.

ReellCS  14.03.2019, 13:10

Er hat auch nicht über CPUs gesprochen! Was deinen Kommentar etwas sinnlos macht.

0
GeroldRainer  14.03.2019, 14:20
@ReellCS

Mit einigen Graphikkarte könnte man sogar einen PC aufbauen. Das OT habe ich angedeutet.

0