NVIDIA oder AMD GPU für Informatik Interessierte?

2 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Ich würde persönlich nvidia nehmen wegen cuda, aber ist dir überlassen am ende.

ROCm, das CUDA equivalent von AMD, hängt noch ordentlich hinterher. Aber pytorch und tensorflow unterstützten ROCm zumindest mittlerweile.
ROCm gibt es aber erst seit 2016, ist also vergleichsweise neu.

Wenn du machine learning machen willst brauchst du soviel schnellen VRAM wie du kriegen kannst. 48GB VRAM auslasten ist garkein problem. Unter 10-12GB VRAM würde ich für machine learning auf keinen fall holen, damit kannst du die meisten größeren models schlicht nicht benutzen, und wenn du selbst welche schreibst musst du dich stark einschränken.

Die zusammenstellung scheint für mich sinnvoll.

Max1236 
Fragesteller
 17.01.2024, 16:44

Kommt vielleicht etwas falsch rüber aber ich will ja da jetzt ja keine großen CV Projekte drauf bauen, sondern nur ein paar kleinere Hobbyprojekte. Braucht man da auch schon so viel VRAM? Und in wie fern ist mROC schlechter als CUDA? Also wo liegen da die Unterschiede?

0
jort93  17.01.2024, 17:00
@Max1236

Selbst bei hobby projekten landet man ganz schnell bei mehr VRAM vebrauch.

Du kannst natürlich deine eigenen models möglichst klein halten, aber wird dann halt einfach nicht so gut wie mit mehr vram. Du willst wirklich soviel wie du kriegen kannst.

mROC wird von weniger programmen unterstützt. Außerdem funktioniert mROC nur unter linux, nicht unter windows. Außerdem ist es schlicht nicht so vebreitet, dementsprechend werden dir nicht viele mit deinen problemen helfen können.

1
jort93  17.01.2024, 19:52
@Max1236

Wobei, seit Juli hat rocm Windows Support. Hatte ich nicht mitbekommen.

1
Woher ich das weiß:Studium / Ausbildung – IT-Kaufmann und Maschinenbauer
Max1236 
Fragesteller
 16.01.2024, 21:01

Hab DDR5 deshalb weil ich auf der AM5 Plattform sein will. Hab mir die verlinkten Pre-Builds mal angeschaut. Da ist ja statt meiner 3060 ne 4060 drin. Die ist ja auch nur 20€ teurer als die 3060. Lohnt sich der Trade-Off zwischen den 12 zu 8GB VRAM, dafür aber halt minimal mehr Leistung und vor allem halt die FrameGen für 20 Euro mehr?

2
heizfeld  16.01.2024, 21:12
@Max1236

Naja, von der neuen Platform machst du leistungsmäßig ja kaum Gebrauch. Dsas sind 200€ extra nur für "DDR5"

billigstes Bundle DDR 4 https://www.hardwareschotte.de/produkt-vergleich/22022706-22216373-22273443?srt=name

billigstes Bundle DDR5 https://www.hardwareschotte.de/produkt-vergleich/22244513-22245753-22269114?srt=name

Da ist dir wohl ein ti durchgerutscht Eine 4060TI ist mal eben 20-25% schneller als eine 3060

https://howmanyfps.com/en-de/graphics-cards/comparisons/nvidia-geforce-rtx-4060-ti-16-gb-vs-nvidia-geforce-rtx-3060

1
Max1236 
Fragesteller
 16.01.2024, 21:36
@heizfeld

Ah, das Ti hab ich glaub wirklich übersehen. Danke für die Hilfe. Jetzt ist nochmal einiges klarer :)

0
jort93  17.01.2024, 06:45
@heizfeld

Im gaming vielleicht...

8GB sind extrem wenig für machine learning. Dadrauf laufen viele größere modelle schlichtweg nicht. Da muss man sich sehr einschränken. Wenn schon sollte es die 16gb version sein.

16gb ist nichtmal viel, das ist für machine learning relativ normal. Viele die sich damit wirklich beschäftigen benutzen grafikkarten mit über 40GB vram.

Es soll ja kein gaming pc werden, sondern zur entwicklung, wenn ich das richtig verstehe.

0
heizfeld  17.01.2024, 11:12
@jort93

Verlink doch mal eins das nicht läuft, dann können wir das nachvollziehen.

0
jort93  17.01.2024, 13:52
@heizfeld

Und wenn man sich selbst ein modell antrainiert, dann kann man das halt für unterschiedliche mengen vram optimieren, unt mit mehr vram wirds besser.

0
heizfeld  17.01.2024, 14:10
@jort93

Also hugging Face, ok. ganz viel BlaBla drumherum. Wo ist jetzt die action, der Movie, die Anwendung, das Produkt??

0
jort93  17.01.2024, 16:54
@heizfeld

Hä, was soll das jetzt mit hugging face zu tun haben???

Wie gesagt, gpt2-xl z.B., das ist doch sehr bekannt. Du wolltest ein beispiel, ich habe dir zwei genannt, und was willst du jetzt? Das produkt habe ich dir gezeigt.

Extrem viele models brauchen mehr als 6GB vram, 6 gb ist NICHTS.

Klingt nicht als hast du dich jemals mit machine learning beschäftigt.

0
jort93  17.01.2024, 19:08
@heizfeld

Der sinn ist dass es gute modelle sind. Gute modelle brauchen oftmals viel VRAM.

0
heizfeld  17.01.2024, 19:14
@jort93

Modelle um was zu tun? Wo kann ich ein brauchbares Ergebnis sehen? Was wird hergestellt?

0
jort93  17.01.2024, 19:18
@heizfeld

GPT2 schreibt texte, chatgpt ist sicher bekannt(wobei die neueren versionen von GPT closed source sind), und DeepFloyd-IF produziert bilder von text inputs.

GPT2-xl kannst du direkt auf der website die ich verlinkt habe ausprobieren, rechts auf der seite.

Und hier sind ein paar bilder die von IF erzeugt wurden https://github.com/deep-floyd/IF

0
heizfeld  17.01.2024, 19:23
@jort93

Also sowas wie objektorientiertes Programmieren. Das Plappermaul ChatGPT kenne ich, ja. Aber nun ein Startbutton irgendwo, was kann ich sichtbar in Gang setzen?

0
jort93  17.01.2024, 19:30
@heizfeld

wie gesagt, auf laughingface kann man GPT2-xl direkt ausprobieren.

Aber naja, ansonsten, lade es dir doch runter und lasse es lokal laufen...

Warum soll ich dir jetzt erklären wie und wozu man machine learning benutzt?... Der fragesteller will sich halt mit machine learning beschäftigen, und im machine learning bereich ist 6gb nicht viel(GPT2-xl ist jetzt schon 4 jahre alt)

0
heizfeld  18.01.2024, 09:16
@jort93

Weiß nicht, irgendwie kommt mir das ganze vor wie ein Makroeditor. Programmschnipsel schreiben, parametrisieren und ablegen for later use. das habe ich erstmals beim MASM Microsoft Assembler verwendet. So wie du es beschreibst kommt es mir vor wie alter wein in neuen Schläuchen. richtig neu ist die Terminologie. Aber AI alte ich eh für ein Windei bisher, bin nicht beeindruckt.

0
jort93  17.01.2024, 06:43

8GB VRAM ist sehr wenig für machine learning, kann ich nicht empfehlen. Unter 10Gb würde ich für machine learning in 2024 nicht kaufen.

0