Open Source LLMs?

2 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

In 32GB RAM kriegst du z.B.

Ich nutze gerne koboldcpp um das auszuführen. Kannst so um die 2T/s erwarten.

Woher ich das weiß:Studium / Ausbildung – Informatik

Cari1232 
Beitragsersteller
 21.02.2025, 16:06

Also auf meinem Mac nur 8, ich hab noch einen server gemietet, da guck ich mal...

Waldelb3  21.02.2025, 16:08
@Cari1232

Und hat der eine GPU mit VRAM die du nutzen könntest?

Cari1232 
Beitragsersteller
 22.02.2025, 12:59
@Waldelb3

Nein, 2 GB RAM auf dem Mac sind frei.

Richtige Open Source Modelle, die auch was können gibt es meines wissens nicht. Aber es gibt "frei" verfügbare Modelle wie llama, deepseek, gemma, phi, ...

Du kannst mit Ollama einige Modelle ausprobieren und gucken welche zu deiner Rechenleistung passen bzw. wie viel TPS dir reichen.

Ich habe zum Beispiel ein 405b Modell zum auswerten von sehr großen Logs genutzt. Mein KI Server hat aber nicht ansatzweise genug VRAM und muss deswegen den normalen RAM nutzen. Das macht das ganze sehr langsam aber wenn ich 30min auf ne Antwort warten muss juckt mich das bei solchen Aufgaben nicht. Für normale Nachfragen bzw. arbeiten direkt mit KI ist das natürlich Schwachsinn. Da nehme ich kleinere Modelle.

Woher ich das weiß:Berufserfahrung – FISI, Ausbildungsleiter, 1st Level Supervisor, Homelab