Deepseek R1 scam? Könnte China KI openai für bestimmte Tasks nutzen?

3 Antworten

(wobei ich aus kapazitätsgründen nur das mittlere habe laufen lasenn können).

Das beantwortet dir die Frage relativ sofort. 70B ist nur ein Bruchteil von 670B, dementsprechend die qualität auch ein bruchteil..da zu denken, dass es ein paar dinge über OpenAI leitet, ist relativ dumm.

Das ding ist open source. Absolut alles kannst du einsehen und prüfen.

Solch ein API Verbrauch zu OpenAI wäre UNMENSCHLICH teuer. Da OpenAIs API ja ultra teuer ist. die von deepseek, circa 20 mal so viel günstiger. Das würde OpenAI Merken, dass ein Nutzer auf deinmal MILLIONEN anfragen am tag ballert, und das wäre ein absolutes verlustgeschäft. Macht vorne und hinten kein sinn


geheim007b 
Beitragsersteller
 31.01.2025, 09:36
Das ding ist open source. Absolut alles kannst du einsehen und prüfen.

die onlineversion naturgemäß nicht. Und natürlich wäre es ein Verlustgeschäft, aber als Wirtschaftsangriff von China dann durchaus nicht mehr. Es geht auch nicht darum generell alles weiter zu leiten, sondern nur Teilaufgaben oder bestimmte aufgaben zu delegieren.

Es ist auch, und ich sage das ausdrücklich, kein konkreter Verdacht sondern eine Beobachtung aus nem oberflächlichen Vergleichstest und ein Gedanke dazu der mir aufgekommen ist.

Nein. DeepSeek ist komplett OpenSource, du kannst also selbst nachsehen was das Programm macht. Abgesehen davon wäre es auf dauer unfassbar teuer daten an ChatGPT zu übermitteln und sie von denen bearbeiten zu lassen - würde auch ziemlich schnell auffallen, vorallem bei offenem Source Code.

Du benutzt ein kleines lokales model, das selbstverständlich deutlich weniger Leistungsfähig ist.

Die lokalen Versionen sind finegetunete andere LLMs wie zB Llama oder Qwen die so tun sollen als wären sie Deepseek

Logoscherweise kommt das 70B Llama Model nicht an das 671B R1 Model ran


geheim007b 
Beitragsersteller
 31.01.2025, 09:23

soweit klar, aber dennoch finde ich es ist ein ziemlich extremer abfall und eine Testaufgabe im bereich der Entwicklung wurde von o1 ziemlich ähnlich gelößt wie von r1 online. Die R1 lokal war extrem weit entfernt. Ich müsste mal vernünftige Testreihen machen, das war nur ne spontanidee warum die Ergebnisse so vergleichbar scheinen und trotzdem so viel weniger ressourcen gebraucht werden.

fronaldfruck  31.01.2025, 09:24
@geheim007b

Die haben doch ChatGpt Daten zum Training verwendet also ist nicht verwunderlich

geheim007b 
Beitragsersteller
 31.01.2025, 09:32
@fronaldfruck

prinzipiell ja, allerdings müsste das ja dann auch im lokalen kleinen Trainingssatz so in die richtung gehen.

Eromzak  31.01.2025, 09:17

Das doch nur die Oberfläche oder nicht? Du ziehst dir ja das Deepseek R1 Model und nicht das Llama model right.

fronaldfruck  31.01.2025, 09:18
@Eromzak

Wenn du nen halben Terabyte RAM hast kannst du deepseek laufenmlassen

Der rest ist nicht derpseek

fronaldfruck  31.01.2025, 09:27
@Eromzak

Was für ein System hast du mit 250GB RAM? Ist das ein consumer mainboard?

Eromzak  31.01.2025, 09:28
@fronaldfruck

Ne ich hab nen alten Server von nem Familienmitglied hier noch rumstehen da kann man sowas mal laufen lassen. Threadripper gedöns.

Mein Desktop board hat "nur 64GB"

Eromzak  31.01.2025, 09:33
@fronaldfruck

Ja ram bekommste hinterher geworfen, ich hab allerdings gerade keine ahnung ob das teil mehr als 256GB kann selbst wenn ich dei Riegel kaufe. Das müsste man sich mal ankucken.

Ah ne Speichercontroller sagt 256gb max. rip 671B

EinTyppie  31.01.2025, 09:35
@fronaldfruck

Irgendwann hat dein CPU das Limit erreicht. Normale Consumer CPUs gehen bis 64-128 GB RAM.