Deepseek R1 scam? Könnte China KI openai für bestimmte Tasks nutzen?
Ich habe R1 getestet, sowohl online als auch als lokal laufendes model. Dabei sind mir gravierende Qualitätsunterschiede aufgefallen (wobei ich aus kapazitätsgründen nur das mittlere habe laufen lasenn können).
Nur mal eine Theorie: könnte R1 diverse Tasks im Hintergrund an openai deligieren und damit diese extremen Werte erreichen (Niveau bei wenig Energieeinsatz)? Hat mal jemand bei einer lokalen Installation ein ähnlich hohes nivau erreicht wie bei der Onlineversion?
Wäre ja auch der perfekte Plan für China Techaktien abstürzen zu lassen.
3 Antworten
(wobei ich aus kapazitätsgründen nur das mittlere habe laufen lasenn können).
Das beantwortet dir die Frage relativ sofort. 70B ist nur ein Bruchteil von 670B, dementsprechend die qualität auch ein bruchteil..da zu denken, dass es ein paar dinge über OpenAI leitet, ist relativ dumm.
Das ding ist open source. Absolut alles kannst du einsehen und prüfen.
Solch ein API Verbrauch zu OpenAI wäre UNMENSCHLICH teuer. Da OpenAIs API ja ultra teuer ist. die von deepseek, circa 20 mal so viel günstiger. Das würde OpenAI Merken, dass ein Nutzer auf deinmal MILLIONEN anfragen am tag ballert, und das wäre ein absolutes verlustgeschäft. Macht vorne und hinten kein sinn
Das ding ist open source. Absolut alles kannst du einsehen und prüfen.
die onlineversion naturgemäß nicht. Und natürlich wäre es ein Verlustgeschäft, aber als Wirtschaftsangriff von China dann durchaus nicht mehr. Es geht auch nicht darum generell alles weiter zu leiten, sondern nur Teilaufgaben oder bestimmte aufgaben zu delegieren.
Es ist auch, und ich sage das ausdrücklich, kein konkreter Verdacht sondern eine Beobachtung aus nem oberflächlichen Vergleichstest und ein Gedanke dazu der mir aufgekommen ist.
Nein. DeepSeek ist komplett OpenSource, du kannst also selbst nachsehen was das Programm macht. Abgesehen davon wäre es auf dauer unfassbar teuer daten an ChatGPT zu übermitteln und sie von denen bearbeiten zu lassen - würde auch ziemlich schnell auffallen, vorallem bei offenem Source Code.
Du benutzt ein kleines lokales model, das selbstverständlich deutlich weniger Leistungsfähig ist.
Die lokalen Versionen sind finegetunete andere LLMs wie zB Llama oder Qwen die so tun sollen als wären sie Deepseek
Logoscherweise kommt das 70B Llama Model nicht an das 671B R1 Model ran
Die haben doch ChatGpt Daten zum Training verwendet also ist nicht verwunderlich
prinzipiell ja, allerdings müsste das ja dann auch im lokalen kleinen Trainingssatz so in die richtung gehen.
Das doch nur die Oberfläche oder nicht? Du ziehst dir ja das Deepseek R1 Model und nicht das Llama model right.
Wenn du nen halben Terabyte RAM hast kannst du deepseek laufenmlassen
Der rest ist nicht derpseek
Nur nen viertel leider. Aber eine Version kleiner tuts auch.
Was für ein System hast du mit 250GB RAM? Ist das ein consumer mainboard?
Ne ich hab nen alten Server von nem Familienmitglied hier noch rumstehen da kann man sowas mal laufen lassen. Threadripper gedöns.
Mein Desktop board hat "nur 64GB"
Ja ram bekommste hinterher geworfen, ich hab allerdings gerade keine ahnung ob das teil mehr als 256GB kann selbst wenn ich dei Riegel kaufe. Das müsste man sich mal ankucken.
Ah ne Speichercontroller sagt 256gb max. rip 671B
Irgendwann hat dein CPU das Limit erreicht. Normale Consumer CPUs gehen bis 64-128 GB RAM.
soweit klar, aber dennoch finde ich es ist ein ziemlich extremer abfall und eine Testaufgabe im bereich der Entwicklung wurde von o1 ziemlich ähnlich gelößt wie von r1 online. Die R1 lokal war extrem weit entfernt. Ich müsste mal vernünftige Testreihen machen, das war nur ne spontanidee warum die Ergebnisse so vergleichbar scheinen und trotzdem so viel weniger ressourcen gebraucht werden.