NVIDIA oder AMD GPU für Informatik Interessierte?
Hey, ich will mir in nächster Zeit einen neuen Desktop PC zusammen zu bauen. Der soll hauptsächlich für persönliche Programmierprojekte und vielleicht auch mal das ein oder andere AAA Game da sein. Meine Programmierprojekte variieren von kleinen simplen Games bis über ML Projekte in PyTorch. Das Budget ist bis ca 1000 Euro
Ich hab mich schon einigermaßen über das ganze informiert und mir folgenden PC zusammengestellt: PCPartPickerList
Allerdings bin ich mir noch bei der Auswahl der GPU nicht ganz sicher. Grundsätzlich hatte ich NVIDIA bevorzugt aufgrund der Einbindung von CUDA in PyTorch. Bin allerdings noch relativ neu im ML Bereich und bin mir deshalb nicht ganz sicher in wie fern das wichtig ist. Auch bin ich mir nicht sicher ob es Qualitative Unterschiede zwischen DLSS und AMD FSR gibt.
Welche der beiden wäre für mich besser?
Freue mich über Erfahrungen oder Ratschläge in dem Bereich.
2 Antworten
Ich würde persönlich nvidia nehmen wegen cuda, aber ist dir überlassen am ende.
ROCm, das CUDA equivalent von AMD, hängt noch ordentlich hinterher. Aber pytorch und tensorflow unterstützten ROCm zumindest mittlerweile.
ROCm gibt es aber erst seit 2016, ist also vergleichsweise neu.
Wenn du machine learning machen willst brauchst du soviel schnellen VRAM wie du kriegen kannst. 48GB VRAM auslasten ist garkein problem. Unter 10-12GB VRAM würde ich für machine learning auf keinen fall holen, damit kannst du die meisten größeren models schlicht nicht benutzen, und wenn du selbst welche schreibst musst du dich stark einschränken.
Die zusammenstellung scheint für mich sinnvoll.
Selbst bei hobby projekten landet man ganz schnell bei mehr VRAM vebrauch.
Du kannst natürlich deine eigenen models möglichst klein halten, aber wird dann halt einfach nicht so gut wie mit mehr vram. Du willst wirklich soviel wie du kriegen kannst.
mROC wird von weniger programmen unterstützt. Außerdem funktioniert mROC nur unter linux, nicht unter windows. Außerdem ist es schlicht nicht so vebreitet, dementsprechend werden dir nicht viele mit deinen problemen helfen können.
Hi,
1000 € und nur ne schäbige 3060? Aber DDR5, wozu eigentlich?
CPU und GPU kommen immer primär, der rest ist nur Gedöns
https://www.memorypc.de/gaming-pc/amd-ryzen-5-554177/
https://www.memorypc.de/gaming-pc/intel-core-i5-556712/
Oder Eigenbau...
https://www.hardwaredealz.com/bester-gaming-pc-fuer-unter-1000-euro-gamer-pc-bis-1000-euro
LG
Harry
Hab DDR5 deshalb weil ich auf der AM5 Plattform sein will. Hab mir die verlinkten Pre-Builds mal angeschaut. Da ist ja statt meiner 3060 ne 4060 drin. Die ist ja auch nur 20€ teurer als die 3060. Lohnt sich der Trade-Off zwischen den 12 zu 8GB VRAM, dafür aber halt minimal mehr Leistung und vor allem halt die FrameGen für 20 Euro mehr?
Naja, von der neuen Platform machst du leistungsmäßig ja kaum Gebrauch. Dsas sind 200€ extra nur für "DDR5"
billigstes Bundle DDR 4 https://www.hardwareschotte.de/produkt-vergleich/22022706-22216373-22273443?srt=name
billigstes Bundle DDR5 https://www.hardwareschotte.de/produkt-vergleich/22244513-22245753-22269114?srt=name
Da ist dir wohl ein ti durchgerutscht Eine 4060TI ist mal eben 20-25% schneller als eine 3060
Im gaming vielleicht...
8GB sind extrem wenig für machine learning. Dadrauf laufen viele größere modelle schlichtweg nicht. Da muss man sich sehr einschränken. Wenn schon sollte es die 16gb version sein.
16gb ist nichtmal viel, das ist für machine learning relativ normal. Viele die sich damit wirklich beschäftigen benutzen grafikkarten mit über 40GB vram.
Es soll ja kein gaming pc werden, sondern zur entwicklung, wenn ich das richtig verstehe.
GPT2-xl braucht z.B. 16GB vram https://huggingface.co/openai-community/gpt2-xl
Ist so das erste was mir spontan einfällt.
Wenn man jetzt nur 6gb hat kann man vermutlich nur die medium version mit 355 millionen parametern(https://huggingface.co/openai-community/gpt2-medium) zum laufen kriegen, aber nicht die xl version mit 1.5 millaraden parametern.
https://huggingface.co/DeepFloyd/IF-I-XL-v1.0
Und das hier ist z.B. für GPU's mit "as little as 14 GB of VRAM", diese ausdrucksweise zeigt denke ich wie wenig 6Gb in dem kontext sind.
Hä, was soll das jetzt mit hugging face zu tun haben???
Wie gesagt, gpt2-xl z.B., das ist doch sehr bekannt. Du wolltest ein beispiel, ich habe dir zwei genannt, und was willst du jetzt? Das produkt habe ich dir gezeigt.
Extrem viele models brauchen mehr als 6GB vram, 6 gb ist NICHTS.
Klingt nicht als hast du dich jemals mit machine learning beschäftigt.
GPT2 schreibt texte, chatgpt ist sicher bekannt(wobei die neueren versionen von GPT closed source sind), und DeepFloyd-IF produziert bilder von text inputs.
GPT2-xl kannst du direkt auf der website die ich verlinkt habe ausprobieren, rechts auf der seite.
Und hier sind ein paar bilder die von IF erzeugt wurden https://github.com/deep-floyd/IF
wie gesagt, auf laughingface kann man GPT2-xl direkt ausprobieren.
Aber naja, ansonsten, lade es dir doch runter und lasse es lokal laufen...
Warum soll ich dir jetzt erklären wie und wozu man machine learning benutzt?... Der fragesteller will sich halt mit machine learning beschäftigen, und im machine learning bereich ist 6gb nicht viel(GPT2-xl ist jetzt schon 4 jahre alt)
Weiß nicht, irgendwie kommt mir das ganze vor wie ein Makroeditor. Programmschnipsel schreiben, parametrisieren und ablegen for later use. das habe ich erstmals beim MASM Microsoft Assembler verwendet. So wie du es beschreibst kommt es mir vor wie alter wein in neuen Schläuchen. richtig neu ist die Terminologie. Aber AI alte ich eh für ein Windei bisher, bin nicht beeindruckt.
8GB VRAM ist sehr wenig für machine learning, kann ich nicht empfehlen. Unter 10Gb würde ich für machine learning in 2024 nicht kaufen.
Kommt vielleicht etwas falsch rüber aber ich will ja da jetzt ja keine großen CV Projekte drauf bauen, sondern nur ein paar kleinere Hobbyprojekte. Braucht man da auch schon so viel VRAM? Und in wie fern ist mROC schlechter als CUDA? Also wo liegen da die Unterschiede?