OC wird als risikofrei angesehen?
Viele scheinen sich zu wundern, wenn ihr superheisses OC Projekt nicht stabil läuft. Es geht um Spannungen und Takte, die der Hersteller bzw. die Norm nicht freigibt. Ein wenig Luft noch oben dürfte es geben. Nur ebenso ist Prozessortod, Instabilität und dramatische Reduzierung der Lebensspanne möglich.
Mir scheint, dies ist vielen Fragestellern nicht klar.
3 Antworten
Für meinen dafürhalten ist Übertakten einfach ein Totschlagargument.
Wenn man von 3 GHz auf 3,6 Ghz übertaktet sind es gerade mal 20 Prozent Leistungsgewinn rein rechnerisch.
Ausserdem ist vieles einfach ein alter Hut und nennt sich Turbomodus und macht das System automatisch.
Vieles ist auch reiner slebstzweck, mein Compuer soll einfach laufen und was bringt es wenn man 2 Punkte im Benchmark mehr hat als der nachbar.
Die üblicherweise genutzten OC Tools sind softwareseitig bereits so auf die verbaute Karte oder CPU angepasst, dass das Beschädigen der Hardware kaum mehr so möglich ist, wie früher.
Die Reduzierung der Lebensspanne muss nicht unbedingt sein. Das hängt ja auch von der entsprechenden Kühlung ab. Ich würde davon ausgehen, dass diejenigen, die da ran gehen entsprechend ausgestattet sind.
Ich würde OC heutzutage gar nicht mehr empfehlen. Der Leistungsgewinn ist oft einfach zu gering, nur 1-3%. Undervolting ist meist sinnvoller.
Ich denke das auch. die Hersteller der Hardware würden es freigeben, wenn sie wüssten, dass unter normalen Betriebsbedingungen die Sache stabil läuft.
Nun ist es schon so, dass die meisten Overclocker schon auf ihre Hardware achten d.h. der Prozessor ausreichend gekühlt wird etc. Das ist m.E. irgendwie wie beim Chiptuning. die Hersteller der Automotoren müssen davon ausgehen, dass die Kundschaft eben NICHT vor jeder Ausfahrt nach dem ÖL guckt, oder eben nicht immer peinlich genau darauf achten, wie warm der Motor wird bzw. es mit dem Warm und auch kaltfahren nicht so genau nimmt.