Acer Aspire aufrüsten?

5 Antworten

Es wäre besser sich auch ein passendes Gehäuse zuzulegen wo auch Komponenten reinpassen die man auch Später wieder Erweitern kann. Das Acer Gehäuse ist eine spezialanfertigung vom Anbieter . Es entspricht nicht der Norm ( Desktop, Mini,Midi oder Tower) Es ist eher SFF zuzuordnen ( Small Form Faktor) ,dafür müsstest spezielle Sachen kaufen die teuer sind und nicht billig. Um das zu Umgehen kannst dich an einer Liste mal Orientieren die aus Komponenten besteht die so ausgelegt sind das man sie noch in 20 Jahren untereinander und miteinander austauschen kann.

Bild zum Beitrag

Nur wenn man seine Sachen auch entsprechend flexibel auslegt ,da kann man auch Komponenten selbst später tauschen.

 - (Computer, Technik, Spiele und Gaming)
seppe513 
Fragesteller
 19.07.2018, 21:47

Hallo, danke für die Info bzgl.SFF. Damit muss ich mich wohl doch mit dem Gedanken befassen was ganz neues anzuschaffen. Wenn ich mir deine Einzelpreise zusammen rechne komme ich ca. 1000 €. Ob ich das bereit bin auszugeben muss ich mir noch überlegen. Danke für die Aufstellung

0

Moin!

Du kannst das alte Gehäuse natürlich behalten.

Das ist dein altes Mainboard:

Bild zum Beitrag

Wie man sieht, sind die Bohrungen für die Montageschrauben gemäß dem ATX-Standard-gehalten, nur dass das Board deutlich kürzer ist - von der Breite her wie ATX, von der Länge her zwischen µATX und ITX.

Ich würde dir empfehlen, ein ITX-Board einzubauen, beispielsweise dieses hier (ASRock Fatal1ty AB350 Gaming-ITX/ac): https://geizhals.de/asrock-fatal1ty-ab350-gaming-itx-ac-90-mxb5p0-a0uayz-a1649185.html

Nicht vom Namen täuschen lassen - Gaming steht drauf, muss aber nicht drin sein ;-)

Dazu einen Ryzen 5 2400G: https://geizhals.de/amd-ryzen-5-2400g-yd2400c5fbbox-a1758261.html

Du kannst entweder den Boxed-Kühler benutzen oder auf etwas leistungsstärkeres upgraden, z.B. den Shadow Rock LP: https://geizhals.de/be-quiet-shadow-rock-lp-bk002-a1215207.html

Als RAM kannst du prinzipiell alles nehmen, je schneller, desto besser für die integrierte Grafik im Prozessor. Beispielsweise: https://geizhals.de/crucial-ballistix-sport-lt-rot-dimm-kit-8gb-bls2c4g4d26bfse-a1573537.html

Dann noch zur SSD. Wie viel Platz du brauchst, kannst du ja ungefähr daran abmessen, wie viel du bisher auf der Platte vom Acer gebraucht hast. Ich würde dir minimal eine 250GB SSD empfehlen: https://geizhals.de/samsung-ssd-970-evo-250gb-mz-v7e250bw-a1809075.html

Die wird einfach auf der Rückseite des Mainboards gesteckt und verschraubt. Gibt es natürlich auch mit doppelt und viermal so viel Speicherkapazität.

Dein Netzteil (den "Trafo") kannst du behalten. Es liefert 220 Watt, mehr als genug für diese Zusammenstellung. Die alte Festplatte könntest du ebenfalls drin lassen - und dann in Kombination mit der SSD als Systemplatte einfach als Datengrab nutzen.

Viel Spaß beim Basteln :-)

Woher ich das weiß:Berufserfahrung
 - (Computer, Technik, Spiele und Gaming)
seppe513 
Fragesteller
 20.07.2018, 12:11

Hallo Franklin, danke für die sehr ausführliche Antwort. Jetzt stehe ich natürlich vor der Entscheidung aufrüsten (die Summe deiner Komponenten würde in meinem Rahmen liegen) oder ob ich umsteigen soll wie Markus in seiner Antwort empfiehlt..... das wird schwierig

0
franklin35  20.07.2018, 13:53
@seppe513

Aufrüsten und auf Linux umsteigen schließt sich ja nicht aus. :-)

0
MarkusGenervt  20.07.2018, 14:29
@seppe513

Ist hier auch schon recht übersichtlich zusammengefasst, ABER …

Dieser SSD-Hype ist wirklich rausgeschmissenes Geld. Denn im Gegenteil zu den HDD's haben diese ihre Stärke zwar in der Geschwindigkeit, Langzeitspeicherung und auch Temperaturunempfindlichkeit, aber dafür ist ihre Achilles-Ferse die stark begrenzten Schreib-Zyklen. Das bedeutet, dass hier nur ein Bruchteil so oft geschrieben werden kann, wie bei einer HDD.

Wenn man hier also ein SSD als System-Disk (C:) verwendet – was die meisten User tun –, wo am Meisten geschrieben wird, dann hält so eine SSD bei täglichem Gebrauch grob 2 Jahre (evtl. auch weniger), während eine gut gekühlte HDD mindestens 15 Jahre durchhält, eine ungekühlte und überhitzte HDD aber mindestens 5 Jahre schafft.

Aber das Überhitzen muss ja nicht wirklich sein, denn für unter 20 EUR gibt es richtig starke Lüfter – natürlich aber nicht in so einem Mini-Case.

Das mag sich ja noch überschaubar anhören, aber im Preis-Leistungs-Vergleich unter Berücksichtigung der Nutzung als System-Disk kommen dann SSD's mehr als 100-mal so teuer, wie HDD's!!!

Hinzu kommt – aber das gilt für beide Typen gleichermaßen – wenn eine Festplatte durch Verschleiß kaputt geht – und hier sind die Voraussetzungen bei modernen Hochleistungs-PC's geradezu "ideal", dass sie schnell kaputt gehen – dann ist es bereits zu spät, wenn man es – ohne Regel-Wartung – dann anhand der Aussetzer merkt. Dann hat man hoffentlich keine Wichtigen Daten drauf oder diese extern gesichert!

Aber auch externe Sicherung heißt heuzutage nichts mehr, wenn ich mir solche Plastik-Box-Glutöfen für HDD's anschaue. HDD's müssen IMMER hinreichend gekühlt werden und Plastik isoliert einfach die Hitze und hält sie! Wenn Du eine HDD anfasst und es ist schon unangenehm, dann für die HDD auch!

Also auch bei externen Backups immer auf ein gut gekühltes Case achten!

0
franklin35  20.07.2018, 15:11
@MarkusGenervt

Das muss man ein wenig relativieren.

Dieser SSD-Hype ist wirklich rausgeschmissenes Geld. Denn im Gegenteil zu den HDD's haben diese ihre Stärke zwar in der Geschwindigkeit, Langzeitspeicherung und auch Temperaturunempfindlichkeit, aber dafür ist ihre Achilles-Ferse die stark begrenzten Schreib-Zyklen. Das bedeutet, dass hier nur ein Bruchteil so oft geschrieben werden kann, wie bei einer HDD.

Hierzu empfehle ich dir diesen Artikel von TechReport: https://techreport.com/review/27909/the-ssd-endurance-experiment-theyre-all-dead

Wie man sehen kann, hält sogar die schlechteste SSD im Testfeld 100 TB Schreiblast aus, bevor sie einbricht. Dazu sei gesagt, dass die reguläre Samsung SSD 840 damals die erste Generation mit 2D-TLC-Speicher war, der sich quasi im experimentellen Teststadium befand.

Der mittlerweile aktuelle 3D-NAND ist um ein vielfaches robuster geworden und locker auf dem Level wie damaliger MLC-Speicher, wo die erste SSD im Test bei 600 TB (!) abraucht.

600 TB - ob du das deinem Leben mal voll kriegst? Möglich, aber sicher nicht in einem SSD-Leben, das dank TRIM gut und gerne 10-15 Jahre währen kann.

Wenn man hier also ein SSD als System-Disk (C:) verwendet – was die meisten User tun –, wo am Meisten geschrieben wird, dann hält so eine SSD bei täglichem Gebrauch grob 2 Jahre ( evtl. auch weniger), während eine gut gekühlte HDD mindestens 15 Jahre durchhält, eine ungekühlte und überhitzte HDD aber mindestens 5 Jahre schafft.

Das stimmt nicht. Ich habe in meinen 6 Jahren mit SSDs und sicher 100 verbauten Exemplaren erst zwei Defekte erlebt, einen nach einem und einen nach drei Jahren. Das waren noch dazu zwei SSDs von zweifelhafter NAND-Qualität, keine Samsung o.ä..

Festplatten haben auch gekühlt ihre Probleme und halten nicht in der Regel 15 Jahre, sondern ausnahmsweise. Die meisten Platten werden heutzutage entweder davon dahingerafft, dass die Mechanik der Lese/Schreib-Köpfe durch die ständige Belastung ausleiert und zu viele Lese/Schreib-Fehler entstehen, oder dass durch ständiges Spin-Up und Spin-Down beim Ein- und Ausschalten der Platte der Motor versagt. Mechanik verschleißt eben.

Aber das Überhitzen muss ja nicht wirklich sein, denn für unter 20 EUR gibt es richtig starke Lüfter – natürlich aber nicht in so einem Mini-Case.

Überhitzung ist nur dann ein Problem, wenn du die SSD unter Dauerlast betreibst. Schau mal: https://www.computerbase.de/2018-04/samsung-ssd-970-evo-pro-test/3/

Nach zwei Minuten Dauerlast sinkt die Leserate der 970 Evo erstmals unter 3.5 GB pro Sekunde. In der Zeit hast du bereits über 400 GB Daten transferiert. Mich würde interessieren, wie viele Anwendungszwecke es für 400 GB Daten in einem Blob gibt, außer Backups zu kopieren?

Aber halb so wild, denn insgesamt kannst du über 5 Minuten durchgehend Daten mit über 2 GB pro Sekunde lesen, bis die Leserate noch weiter absinkt, und möglicherweise noch länger, aber leider endet da der Test. Das Argument mit der Überhitzung ist also eher theoretischer Natur.

Was man aber natürlich immer machen sollte, ist, auf ausreichende Kühlung zu achten. Für M.2 SSDs gibt es aufklebbare Kühlkörper. Es könnte aber auch schon ausreichen, die SSD mit einem Wärmeleitpad mit der Gehäuserückseite zu verbinden, denn die ist ja auch aus Metall und dürfte die Wärme ganz ordentlich ableiten.

1
MarkusGenervt  20.07.2018, 17:24
@franklin35

Also der Artikel, bzw. die Tests sind ja sehr schön und auch detailliert und sie bieten eine gute Aussage-Kraft zum Qualitäts-Vergleich untereinander und auch die Datenmengen sind beeindrucken … relativ.

Denn hier wird nicht mal darauf eingegangen, wie es hier im Vergleich zu HDD's mit der Schreiblast aussieht und leider wird auch von Datenraten eines Spar-Durchschnitts-User ausgegangen, der aber auch eben keinen bemerkenswerten Vorteil aus der Nutzung einer SSD ziehen kann und daher auch nicht zu der derzeitigen Konsumenten/Nutzer-Gruppe gezählt werden kann.

Ein Geschwindigkeits-Vorteilsnutzer einer SSD hat wesentlich mehr als 100 TB Schreiblast pro Jahr, denn bereits ein echter und täglicher Durchschnitts-Nutzer liegt hier bei knapp 200 TB/Jahr. Wenn man aber selbst dann – sehr großzügig – von einem Durchschnittswert von 1 PB/Jahr bis zum Versagen ausgeht, dann sind das bei einem Durchschnitts-User nur noch 5 Jahre und dann sind die Daten verloren.

Bei einer täglichen Nutzung, kann man sich dann an zwei Fingern abzählen, dass die SSD keine 5 Jahre hält – nicht mal bei einer täglichen Normal-Nutzung.

Weiterhin steht im realen Raum, dass die Schreibarbeit unter Windows seit Vista exponentiell ansteigt und unter Win10 inzwischen groteske Ausmaße angenommen hat. Allerdings kann ich hier auch keine genauen Zahlen nennen, aber wenn ich die alte Last mit der Neuen vergleiche, dann würde ich grob über den Daumen peilen, dass es von Vista zu Win10 eine Steigerung von 40% geben müsse – und das ist wirklich sehr vorsichtig geschätzt. Ein tägliches und durchschnittlich genutztes Win10 würde ich daher irgendwo bei 200-250 TB/Jahr veranschlagen.

Das ist einfach das Problem bei diesem Test, dass er keinerlei Vergleich zu den HDD's und auch nicht zu realen Nutzungs-Szenarien anführt, sondern lediglich ein paar Definitions-Parameter in den Raum stellt, die nur scheinbar den Nutzungs-Alltag weit übersteigen, tatsächlich aber an der Realität völlig vorbei laufen.

Und, sorry, selbst wenn eine SSD dann – bei sparsamen Gebrauch – 5 Jahre hält, hält die HDD immer noch mindestens doppelt so lange und im Fall eines Ausfalls besteht hier wenigstens die Chance einer Datenrettung, was man bei SSD's dann gleich komplett knicken kann.

Was die Kühlung betrifft, da meinte ich eher die HDD's, weil hier durch thermische Belastung aber auch Schwankung alles von der Mechanik bis zur Trägerschicht mechanisch überlastet wird. Bei NAND's ist hier noch wesentlich mehr Spielraum in der mechanische Belastbarkeit und das hebt sich quasi mit dem elektronischen Verschleiß dann wieder auf.

Gut, ich will mal nicht päpstlicher als der Papst sein und sage mal die SSD's halten grob und im schnitt um die 5 Jahre.

Ach!!! Jetzt wollte ich gerade wieder von meiner alten HDD berichten und da fällt mir auf, dass ich mich die ganze Zeit bei der Lebensdauer verrechnet habe. Ehrlich manchmal bin ich so ein Döspaddel! Da erzähl ich die Geschichte schon so lange, dass ich glatt ein Jahrzehnt hab unter den Tisch fallen lassen. Wir haben ja schon 2018 und die ist nämlich jetzt fast 20 Jahre alt! Und sie läuft und läuft und läuft. Seit Win98 bis XP und jüngst auch mit Linux. Ja, Mensch, dann ist meine Zweitälteste ja inzwischen auch schon 12 Jahre alt! und die rödelt mit Win7 und zusätzlichem TV-Timeschift-Speicher und da ist noch nciht mal ein einziger Sektor verloren gegangen.

Also irgendwas mach ich gewaltig falsch, dass ich letztes Jahr nur eine 17 Jahre HDD verloren habe, die ich aber die ersten 7 Jahre gekocht hatte.

Nei, nei, nei! Bevor ich mir eine SSD Kaufe, müssen die Größen und Preise entsprechend lohnend sein, dass sie sich auch wirklich für das Datenarchiv auf lange Sicht lohnen. Ich hbae schon mit einer M.2 als Swap geliebäugelt, aber unter Linux brauch ich den mit meinen 8 GB RAM auch nur seltenst.

Das lohnt alles einfach nicht.

0
franklin35  23.07.2018, 16:57
@MarkusGenervt

Ganz schöne Schwarzmalerei. Hast du schon mal eine SSD im Rechner gehabt? Das ist wie umsteigen von einem Passat auf einen Tesla. Schön leise und abartig schnelle Beschleunigung. Das bisschen weniger Platz bei dem bisschen mehr Geld ist es absolut wert (Achtung, Ironie: große SSDs sind natürlich sackteuer. Deswegen immer ein Datengrab dazukaufen ;-).

Zu HDDs und ihrer Lebenserwartung: Moderne HDDs sind viel anfälliger als alte. Durch die hohe Speicherdichte, Platter- und damit auch Lese/Schreibkopfanzahl in modernen Platten gibt es so viel mehr Ausfallfaktoren als früher. Insofern: Herzlichen Glückwunsch, dass du ein paar Platten im Teenageralter hast, aber die Regel ist das schon lange nicht mehr.

Dazu kommt noch, dass sich der TAU (täglich anzunehmender User) in der Regel irgendeine Seagate Barracuda für nen Appel und n Ei kauft und keine teure WD Purple.

Man sagt übrigens, dass im Officebetrieb zwischen 20 und 40 GB geschriebene Daten pro Arbeitstag anfallen. Ich werde das später selber mal überprüfen, was meine SSD dazu meint. So long :-)

0
MarkusGenervt  23.07.2018, 17:14
@franklin35

Ich bin kein Schwarzmaler, ich bin Realist – und zwar mit langjährigen Erfahrungen und Kenntnissen.

Ich weiß sehr wohl, wie SSD's abgehen beim Starten, aber der alltägliche Arbeits-Unterschied zwischen meinen gut gepflegten Partitionen und einer SSD ist eher marginal.

Doch mal ganz ehrlich, wer beim Start seines Rechners keine Zeit hat, eine einzige beschissene Minute zu warten, der hat ganz andere Probleme.

Klar wäre es auch schön, ein paar hundert GB schneller hin und her kopieren zu können, aber da sind wir wieder bei den Speicherzyklen und abgesehen davon auch bei selbstinduzierten Zeitmangel-Wunsch-Problemchen.

Welchen Gewinn bringt es, wenn man 5 Stunden am Tag mit Daddeln verplempert und dafür dann 5 Minuten Zeit durch schnellere SSD's gewinnt, diese aber durch kürzere Lebensdauer einbüßt?

Anyway, wie wurde ich die Tage doch noch beschimpft – richtig, ich sei "veraltet".

Vernunft und sparen ist ja auch für Idıoten … juckt mir nüscht!

0
franklin35  24.07.2018, 13:41
@MarkusGenervt

Vernunft und sparen ist doch super sinnvoll, keine Frage. Aber die Vorteile von SSDs wirken sich eben nicht nur auf den Rechnerstart aus, sondern auch auf jeden Programmstart. Das schont die Nerven ungemein. Wenn ich heute noch an Rechnern mit Festplatte arbeiten muss, steigt mir sofort der Blutdruck :D

Man muss ja nicht gleich die Backupplatten durch SSDs ersetzen. Alles, wo lange (> 10 Jahre) Haltbarkeit gefordert ist, muss sowieso auf redundante Systeme dupliziert werden. Alles andere kann auch auf eine SSD, auch wenn die nach 300 TBW den Geist aufgibt. Bei Platten kannst du genauso Montagsmodelle erwischen.

Nichts für ungut, deine Argumente haben schon was für sich. Das muss dann jeder für sich entscheiden, ob er 'ne SSD braucht oder nicht. Für mich persönlich überwiegt eindeutig die flüssigere Bedienung des Rechners den finanziellen Aspekt.

0
MarkusGenervt  24.07.2018, 14:49
@franklin35

Also auch beim Programmstart kommt es auf die System-Konfiguration an.

Was viele User nicht wissen und daher immer den Bigger-Fatter-Better-Fehler begehen, sind zum Beispiel sinnfreie System-Partitionen, die über die gesamte Festplatte gehen. Alles was über 100 GB hinaus geht, bremst den Zugriff einfach aus und selbst das ist noch übermäßig groß. Hinzu kommen dann solche schwachsinnigen System-Konstruktionen wie Win8/10 die einen Overload an nutzlosen Bibliotheken erst mal stemmen müssen.

Ich muss nicht warten und selbst unter Windows geht das ZACK! und da.

Aber wenn man bei Anfahren mit einem Fuß auf der Bremse steht und mit einem Panzer im Schlepptau, braucht man eben einen eine Saturn-Rakete, die genug Power hat, um losfahren zu können – um es mal "ein wenig" zu verdeutlichen.

Es hilft schon, wenn man seinen Computer auch bedienen kann.

0
franklin35  26.07.2018, 11:37
@MarkusGenervt

Fast korrekt, aber der "Sweet Spot" der Systempartition variiert je nach Festplattenkapazität und Anzahl der Platter: https://www.pcworld.com/article/255224/how_to_partition_your_hard_drive_to_optimize_performance.html

Du hast Recht, dass Festplatten bei richtiger Partitionierung deutlich schneller sind als Platten mit nur einer großen Partition. Trotzdem sind sie selbst dann immer noch kein Vergleich zu SSDs (ich bin damals von einer Velociraptor auf SSDs umgestiegen und habe selbst da den Unterschied bemerkt).

Dazu kommt noch der angenehme Nebeneffekt, dass SSDs aufgrund ihres Designs gar nicht erst in diese Problematik reinlaufen. Interessante Antwort dazu auf SuperUser hier: https://superuser.com/a/1081730/532155

0
MarkusGenervt  26.07.2018, 17:43
@franklin35

Also mit dieser "Sweat Spot" Suche kann man es auch wirklich übertreiben.

Was nützt es Dir den Sweet Spot zu kennen, wenn die Daten darüber hinaus ragen?

Der ganz banal einfache Punkt ist, die Dateien je nach Nutzungs- und Schreibhäufigkeit zu gruppieren und dementsprechend sparsam zu partitionieren. Dabei darf man sich auch in gewissen Grenzen an der OS-Ordner-Struktur vergreifen, solange man darauf achtet, dass das System immer noch funktionstüchtig bleibt, wenn die ausgelagerten Partitionen mal nicht erreichbar sind.

Hier ergibt sich dann auch ganz zwangsläufig eine gesamte System- und Programme-Datenmenge (ohne Spiele) von weit unter 200 GB und der Rest bleibt für Daten-Dateien, die ebenfalls nach Zugriffs-Optimierung geclustert werden.

Faust-Formel:

  1. Boot: 50-100 MiB – das ist meistens auch die Menge, die übrig bleibt, wenn man von hinten nach vorne in Binär-Blöcken und an Zylindergrenzen partitioniert
  2. Auslagerungs-Speicher: je nach Bedarf 4 GiB bis 125% RAM
  3. System: Windows 7-10 → 32-64 GiB, je nach Umfang der Treiber und System-Programme (z.B. .NET)
  4. Cache: TEMP, Browser-Cache, etc.; 8 GiB sind schon großzügig
  5. Programme: hier kann man auch nach Kategorie partitionieren und z.B. kleinere Nutzer-Programme (ca. 8 GiB) zusammenstellen und größere Pakete (Office, Entwicklung, Spiele, etc.) separieren.

Das macht dann ungefähr 70~110 GiB (ohne Spiele)

Jeder hat heute mind. eine 1 TB HDD od. größer. Wenn man die entsprechend einteilt, ist man recht optimal aufgestellt. Wenn man nun noch mit einem guten Defragmentierer die einzelnen Partitionen selbst noch nach Nutzungs- und Änderungs-Frequenz sortiert/anordnet, dann ist das schon verdammt flott!

Nun, und was die SSD's betrifft, da haben wir ein dickes Problem, wenn eine SSD mal den Geist aufgibt und die interne Speichertabelle flöten geht. denn dann darf man sich das Kettensägenpuzzle aus dem Abnutzungs-Ausgleichs-System schön manuell zusammen suchen und das kann man so richtig knicken.

Eine gut defragmentierte HDD hat alle Dateien und ihre Speicherblöcke ordentlich aufgereiht und wenn hier die Datei-Tabelle mal kaputt geht, ist es ein Leichtes die Daten wieder rekonstruieren zu können.

Das mag wenige User kümmern, aber wer das schon mal erlebt hat, der ist froh, wenn er seine Daten so wiederherstellen kann, denn verloren bleibt verloren und das tut manchmal ordentlich weh.

Und auch die Backups sind davor nicht geschützt und eine Doppel-Sicherung kann sich wohl kaum ein 08/15-User leisten.

SSD's sin nett in der Performance, aber sie sind nicht das Nonplusultra für dass sie Verkauft werden und darum geht es: um den Umsatz.

0
franklin35  27.07.2018, 10:01
@MarkusGenervt
Und auch die Backups sind davor nicht geschützt und eine Doppel-Sicherung kann sich wohl kaum ein 08/15-User leisten.

Wie wahrscheinlich ist es deiner Meinung nach, dass Quelle und Ziel gleichzeitig kaputt gehen? ;-)

Die Performance einer SSD erreichst du faktisch nicht mit einer Festplatte. Über die gefühlte Geschwindigkeit lässt sich streiten, da hast du anscheinend eine andere Auffassung als ich.

Jeder hat heute mind. eine 1 TB HDD od. größer. Wenn man die entsprechend einteilt, ist man recht optimal aufgestellt. Wenn man nun noch mit einem guten Defragmentierer die einzelnen Partitionen selbst noch nach Nutzungs- und Änderungs-Frequenz sortiert/anordnet, dann ist das schon verdammt flott!

Dazu gibt es zwei Dinge zu sagen:

  1. Die meisten User sind mit dem Partitionieren an sich schon überfordert.
  2. Die meisten User besitzen 5400upm-Platten. Da hilft auch gute Partitionierung nichts, die Dinger sind einfach lahm.

Du solltest deine Anleitung für Menschen mit Festplatten aber wirklich irgendwo dauerhafter zugänglich machen als hier in einem Kommentar ;-)

0
MarkusGenervt  27.07.2018, 18:11
@franklin35
Wie wahrscheinlich ist es deiner Meinung nach, dass Quelle und Ziel gleichzeitig kaputt gehen? ;-)

Heutzutage? Wirklich sehr groß!

Jeder achtet immer nur auf Speed, Speed, Speed, aber von Daten-Integrität und -Sicherheit hat wirklich niemand einen Dunst.

Die meisten User sind mit dem Partitionieren an sich schon überfordert.

Wenn sie damit überfordert sind, dann nützt auch die beste Technik nichts, wenn deren Anforderungen einfach nicht beachtet werden.

Die meisten User besitzen 5400upm-Platten. Da hilft auch gute Partitionierung nichts, die Dinger sind einfach lahm.

Eben weil alles schnell und klein sein soll, aber niemand sich wirklich mit der Technik auseinandersetzten will. Auch eine SSD ist kein Zauberkasten der das schon macht, was der Hype fordert. Irgendwann wird auch diese Technik in die Knie gehen, denn bisher ist alles bloß graue Theorie. Echte Langzeit-Erfahrungen gibt es nicht und Labortests spiegeln nicht mal die Hälfte der Praxis-GAU's wieder.

Ich hab einfach immer und überall die Erfahrung gemacht, nichts ist wirklich so toll-toll, wie es verkauft wird.

Das erste Anzeichen für Probleme sehe ich hier in den völlig chaotischen Speichermustern. Denn wenn die Speicherblöcke versagen können, was ist dann erst mit den Lokalisations-Tabellen, die keine Redundanzen und Lastausgleichs-Algorithmen haben?

Tja, genau hier ist die zentrale und entscheidende Schwachstelle, die dann irgendwann alles und ohne Vorwarnung wie ein Kartenhaus zusammenfallen lässt, während die HDD's immer noch Langszeit-Vor-Warnungen abgeben – voraus gesetzt, man kümmert sich darum. Bei den SSD's ist kein Kümmern mehr möglich, sobald die erste Lokalisations-Information verloren gegangen ist.

Du solltest deine Anleitung für Menschen mit Festplatten aber wirklich irgendwo dauerhafter zugänglich machen als hier in einem Kommentar ;-)

Ja, das habe ich inzwischen schon öfters überlegt, denn ich wiederhole mich hier inzwischen auch ständig.

Das sollte ich wohl wirklich mal angehen.

0
franklin35  27.07.2018, 18:19
@MarkusGenervt

"Ich bin nicht paranoid, ich werde wirklich verfolgt!"

Vorsicht ist zwar besser als Nachsicht, aber Speichermedien haben selten die Angewohnheit, genau gleichzeitig kaputt zu gehen. Außer natürlich, man hat kräftig negatives Karma angesammelt, indem man z.B. eine Katze überfahren hat oder sowas.

Mir sind auch schon Platten komplett ohne Vorwarnung abgeraucht. Im Idealfall gibt es vorher SMART-Errors, aber eben auch nur im Idealfall.

Ich hab einfach immer und überall die Erfahrung gemacht, nichts ist wirklich so toll-toll, wie es verkauft wird.

Absolut richtig, und das gilt für Festplatten wie für SSDs.

Das erste Anzeichen für Probleme sehe ich hier in den völlig chaotischen Speichermustern. Denn wenn die Speicherblöcke versagen können, was ist dann erst mit den Lokalisations-Tabellen, die keine Redundanzen und Lastausgleichs-Algorithmen haben?

SSDs haben ja zum Glück Reservespeicher dabei. Das Wear Leveling kümmert sich dann um defekte Blöcke.

Eben weil alles schnell und klein sein soll, aber niemand sich wirklich mit der Technik auseinandersetzten will. Auch eine SSD ist kein Zauberkasten der das schon macht, was der Hype fordert. Irgendwann wird auch diese Technik in die Knie gehen, denn bisher ist alles bloß graue Theorie. Echte Langzeit-Erfahrungen gibt es nicht und Labortests spiegeln nicht mal die Hälfte der Praxis-GAU's wieder.

Ich bin mir sicher, dass das damals genauso behauptet wurde, als von Floppies auf Festplatten umgestellt wurde. Wenn du den SSDs jetzt noch nicht traust, kannst du ja abwarten, bis die Technologie ein Jahrzehnt gereift ist, dann sollten die gröbsten Kinderkrankheiten raus sein ;-)

0
MarkusGenervt  27.07.2018, 19:54
@franklin35
SSDs haben ja zum Glück Reservespeicher dabei. Das Wear Leveling kümmert sich dann um defekte Blöcke.

Ware Leveling = Lastausgleich

Das habe ich schon gemeint, aber das Wear Leveling betrifft erst mal die Daten-Bereiche und nicht die Wear-Level-Meta-Bereiche, denn sonst müssten diese selbst nochmal Meta-Daten-Block haben, die deren Wear-Level festhalten, usf.

Am Ende hast du ein paar wenige Meta-Meta-Meta-Daten-Böcke, die dann so viel Schreiblast tragen müssen, dass sie Ruck-Zuck hinüber sind und das können selbst besonders langlebige Speicher-Blöcke auch nicht mehr stemmen – wenn sie denn überhaupt verbaut wurden, denn das ist natürlich auch ein Kosten-Faktor!

Das ist die berühmte Katze, die sich hier in den Schwanz beißt.

Und wenn dann die Meta-Speicher-Blöcke den Geist aufgeben, dann können die Nutz-Daten-Speicherblöcke immer noch super toll intakt sein, aber es ist nur noch nutzloser Daten-Salat übrig.

Und DAS ist eben der doppelte Nachteil bei SSD's, denn wenn eine HDD in die Knie geht, macht sie es langsam mit vielen Vorankündigungen und wenn sie ordentlich defragmentiert wurde, können selbst beim Verlust der Meta-Daten die Dateien wiederhergestellt werden!

Das alles natürlich abgesehen von Fehlern in der Steuer-Elektronik/Mechanik, welche ohne jeglichen Datenverlust leicht zu ersetzen sind – wenn man hier natürlich nicht die Warnzeichen (KLACK!) ignoriert und die Arme ihre Köpfe senken lassen (FRÄS!).

Aber auch das alles sind Warnzeichen, deren Kenntnis HDD-Daten retten helfen und das ist bei SSD's einfach nicht drin.

Sie mögen ja schnell sein, aber solange diese Sicherheits-Probleme nicht gelöst sind, sind sie einfach ein Risiko und zwar ein sauteures Risiko, denn der rund 100-fache Preis auf derzeitige Speichergröße und Lebenszeit umgerechnet, ist mir so viel Risiko nicht wert.

Und zufällig bin ich so alt, dass ich damals die Diskussion um den Wechsel von Floppies zu Festplatten mitbekommen und mitgeführt habe und da gab es auch nur die Freunde des praktischen Nutzens von leichten und kleinen Floppies, die man mal eben in die Tasche stecken konnte, die gegen HDD's waren. Denn abgesehen davon, dass es dieselbe Speichertechnik war, waren es eben die Floppies, die es durch ihre mechanische Abnutzung (Abrieb an der Hülle) zu ersetzten galt. Aber letztlich hat die CD die Floppy durch ihre Speichergröße ersetzt – und ein weiterer Nachteil der SSD's.

Also wirklich, bisher sehe ich nur die Geschwindigkeit als Vorteil und als System-Disk ist das auch OK für Daten, die man leicht ersetzten kann. Aber eben der Preis ist mir derzeit einfach viel zu hoch.

Geld vermehrt sich nicht, indem man es jedem Hype hinterher schmeißt. Allerdings indem man es andere tun lässt. 😈

0
franklin35  30.07.2018, 09:58
@MarkusGenervt
Das habe ich schon gemeint, aber das Wear Leveling betrifft erst mal die Daten-Bereiche und nicht die Wear-Level-Meta-Bereiche, denn sonst müssten diese selbst nochmal Meta-Daten-Block haben, die deren Wear-Level festhalten, usf.
Am Ende hast du ein paar wenige Meta-Meta-Meta-Daten-Böcke, die dann so viel Schreiblast tragen müssen, dass sie Ruck-Zuck hinüber sind und das können selbst besonders langlebige Speicher-Blöcke auch nicht mehr stemmen – wenn sie denn überhaupt verbaut wurden, denn das ist natürlich auch ein Kosten-Faktor!
Das ist die berühmte Katze, die sich hier in den Schwanz beißt.
Und wenn dann die Meta-Speicher-Blöcke den Geist aufgeben, dann können die Nutz-Daten-Speicherblöcke immer noch super toll intakt sein, aber es ist nur noch nutzloser Daten-Salat übrig.

Das mit den speziellen "Meta-Blöcken" hat man mal bei USB-Sticks gemacht. Bei SSDs gibt's dafür keine gesonderten Blöcke. Für die Meta-Infos wird regulärer NAND verwendet, der auch als Datenblock verwendet werden könnte. Daher kann auch ein Meta-Block per Wear Leveling korrigiert werden.

Sie mögen ja schnell sein, aber solange diese Sicherheits-Probleme nicht gelöst sind, sind sie einfach ein Risiko und zwar ein sauteures Risiko, denn der rund 100-fache Preis auf derzeitige Speichergröße und Lebenszeit umgerechnet, ist mir so viel Risiko nicht wert.

Sicherheitsprobleme? Meinst du, wenn die SSD den Geist aufgegeben hat? Ab in die Presse oder durch mit der Flex. :-)

Also wirklich, bisher sehe ich nur die Geschwindigkeit als Vorteil und als System-Disk ist das auch OK für Daten, die man leicht ersetzten kann. Aber eben der Preis ist mir derzeit einfach viel zu hoch.

Das Wort zum Freitag :)

0
MarkusGenervt  30.07.2018, 10:19
@franklin35
Das mit den speziellen "Meta-Blöcken" hat man mal bei USB-Sticks gemacht. Bei SSDs gibt's dafür keine gesonderten Blöcke. Für die Meta-Infos wird regulärer NAND verwendet, der auch als Datenblock verwendet werden könnte. Daher kann auch ein Meta-Block per Wear Leveling korrigiert werden.

Ich meine nicht die Datei-Meta-Daten wie Zeitstempel, Attribute oder ADS, sondern die Meta-Daten zur Datei Verwaltung, das zugrunde liegende und abstrahierte Datei-System, wo die Informationen zum Wear Leveling stehen und auch wo zusammen gefasst wird, welches Datei-Fragment in welchem Speicherblock gespeichert wird, um daraus wieder die betreffende Datei zusammensetzten zu können.

Das Wort zum Freitag :)

Ach herrjemine! Schon wieder so viel Zeit vergangen?! Meine Güte, unser Informations-Austausch-System ist ja schon steinzeitlich im Vergleich zu Floppy's, aber erst im Vergleich zu HDD's und DVD's! … hmm … da war doch noch was … 🤔🤔🤔

0
franklin35  30.07.2018, 11:50
@MarkusGenervt
Ich meine nicht die Datei-Meta-Daten wie Zeitstempel, Attribute oder ADS, sondern die Meta-Daten zur Datei Verwaltung, das zugrunde liegende und abstrahierte Datei-System, wo die Informationen zum Wear Leveling stehen und auch wo zusammen gefasst wird, welches Datei-Fragment in welchem Speicherblock gespeichert wird, um daraus wieder die betreffende Datei zusammensetzten zu können.

Ja, genau. Meines Wissens liegt das im regulären Speicher. Hast du eine Quelle, wo man das nachschlagen könnte?

Ach herrjemine! Schon wieder so viel Zeit vergangen?! Meine Güte, unser Informations-Austausch-System ist ja schon steinzeitlich im Vergleich zu Floppy's, aber erst im Vergleich zu HDD's und DVD's! … hmm … da war doch noch was … 🤔🤔🤔

:D

0
MarkusGenervt  30.07.2018, 12:37
@franklin35
Ja, genau. Meines Wissens liegt das im regulären Speicher.

Nur bei älteren Modellen. Bei neueren Modellen gibt es einen gesonderten Speicherbereich für die ganzen Meta-Daten und Analysen. Da das eigentliche Dateisystem kein Wear Leveling beherrscht, ist die physische Speicherebene eine Art Sub-Level für das virtualisierte Dateisystem. Die Dateien befinden sich also nicht dort, wo sie angezeigt werden. Um diese Verwaltung aber kontinuierlich durchführen zu können, ist ein eigener Speicherbereich erforderlich, wo diese Meta-Daten erfasst und berechnet werden können und das bedeutet eben, dass diese Datenblöcke statisch adressiert werden müssen. Ansonsten könnte die Berechnung eines Auto Wear Leveling zum Scheitern des Speicherprozesses führen.

Hast du eine Quelle, wo man das nachschlagen könnte?

Leider nein. Ich lese solche Artikel immer nur, überprüfe vorher noch die Quellen und wichtiger Anbieter und ihre Interessen und der Rest interessiert mich nicht, da ich das nicht für Referate oder Zeitungs-Artikel referenzieren muss, sondern mich inhaltlich interessiert..

0

Hallo,

in dem Gehäuse ist nicht viel Platz. Daher wird daraus auch kein richtig krasser PC werden.

Ein AMD Ryzen 5 2400G mit B350 Mainboard (BIOS Update) im ITX Format und 8 GB DDR4 3000 MHZ RAM passt gut. Dazu ein Top-Blow Kühler für die CPU, musst dafür noch das Gehäuse ausmessen.

LG

Woher ich das weiß:Hobby – Gamer und PC-Bastler
seppe513 
Fragesteller
 21.07.2018, 21:50

Hallo Technomanking,

was ist deine Meinung zu einer SSD? Was für eine Grafikarte würdest du mir noch empfehlen?

Danke für die Hilfe.

0
Technomanking  21.07.2018, 22:23
@seppe513

Eine SSD ist ein Muss heutzutage. 100 GB reichen, denn da kommt eh nur das Betriebssystem drauf. Alle Daten auf die HDD.

Da hat nur eine kleine Grafikkarte platz, so in Richtung GTX 1050Ti würde ich gehen.

LG

2

hallo, das gehäuse ist mega unpraktisch zum basteln. kauf dir ein größeres schönes, dann machts auch mehr spaß

seppe513 
Fragesteller
 19.07.2018, 21:38

Hallo, danke für deinen Tip. Leider finde ich gerade das kleine Gehäuse viel schöner, als ein großes. Mal schauen, wo die Reise mich hinführt.

0

Also erst mal kann man Acer nicht auf-rüsten, sondern nur ent-sorgen. 😈

Aber das ist ja ohnehin erforderlich bei der CPU.

So, dann hast Du das Problem, dass der Case einfach viel zu klein ist, um einen modernen Rechner aufnehmen zu können. Das liegt aber nicht an der Baugröße, denn die passt hier locker rein, sondern an der erforderlichen Kühlung und die passt hier nicht rein. Abgesehen davon ist diese DVD-Laufwerk eine Katastrophe!!! Na, wie viel DVD's sind Dir damit schon runter geknallt? Auf so einen Schwachsinn kommt auch nur Acer …

Also, höchstens Festplatte ausbauen und ab zum Recycling-Hof damit.

Und wenn es unbedingt Win10 sein muss und das noch weitere 10 Jahre halten soll, dann müsstest Du hier schon mindestens 2000 EUR investieren oder Du machste s auch wie jeder vernünftige Windowsianer und wechselst zur Linux-Konkurrenz, denn damit reduziert sich der Kostenaufwand um die Hälfte und Du bist auf mind. 15 Jahre Hardware- und System-sicher.

Für Office, Fotos und Internet – ganz besonders Internet!!! – gibt es nichts Besseres. Die neuen Linuxe haben Windows inzwischen in Usability weit überholt und auch in puncto Sicherheit waren und sind die immer noch unschlagbar – mal ganz abgesehen von der kostenlosen Software.

Windows braucht man heute nur noch für einen Zweck – Zocken, zocken, zocken bis der Arzt kommt. Nur dafür wird so anspruchsvolle Hardware benötigt und gerade Windows 10 hat hier inzwischen einen Riegel vor ältere Hardware geschoben und verweigert bei älteren CPU's sogar die Installation!

Brenn Dir mal eine Kubuntu Live-DVD (läuft ohne Installation oder Veränderugen am Rechner) und teste das mal auf Deinem Rechner. Alles, was Du für Deine Wunsch-Zwecke benötigst ist hier bereits installiert und sofort funktionstüchtig (bei GIMP bin ich gerade nicht sicher ist aber auch in 2 Minuten – auch Live – nachinstalliert). Im Prinzip brauchst Du dafür nicht mal einen neuen Computer (wenn es nicht gerade Acer wär 😈), denn Linux-Distros sind so anspruchslos, dass sie sogar mit Museums-Rechnern klar kommen – natürlich nicht alle Distributionen, aber bei mir läuft sogar ein Linux noch auf einem uralten AMD-K6-II (mein Nostalgie-Puter).

Doch zurück zu Win10 – auch wenn ich mich gar nicht traue, Dich hier zu beraten, denn ich hasse es, Leute über den Tisch zuziehen 😈:

Microsoft arbeitet inzwischen sehr eng mit Intel zusammen und da ist auch die zukünftige Entwicklung mit vorprogrammiert. Die AMD-Prozessoren sind zwar halb so teuer und in teilen sogar leistungsstärker als die Intels und noch akzeptiert Win10 diese Prozessoren (auch für deren Grafik-Karten), aber in zukünftigen Windows-Versionen wird da vermutlich in ähnlicher Weise der Support blockiert, wie das jetzt schon bei älteren CPU's der Fall ist. Also ist hier eine kluge Vorausplanung erforderlich.

Bereits jetzt bereitet gerade noch akzeptierte Hardware bei den quartalsmäßigen Zwangs-Upgrades erhebliche Probleme, die dann dazu führen, das Windows 10 verreckt und komplett neu installiert werden muss, was aber dank UEFI-Block-Code auch erst mal wieder trick-technisch übergangen werden muss. Wer hier kein Techniker ist, der ist aufgeschmissen und den Microsoft-Support hat es noch nie gegeben (im Gegensatz zu anderen OS). Dann wissen auch kaum irgendwelche User, dass sie hierbei ihre gesamten Dateien und Einstellungen verlieren!

Also bevor ich Dir jetzt wirklich einen High-End PC aufschwatze – denn langsam habe ich wirklich Bauchschmerzen – sag doch erst mal, was Du Dir genauer vorstellst und ob Du hier nicht doch inzwischen Zweifel am Windows-Weg bekommen hast.

Ich selbst bin übrigens ein Microsoft-Urgestein und war schon seit den ersten Tagen dabei, aber bei dieser Entwicklung hier war für mich Ende, denn ich bin auch kein Gamer und brauche keine Mondrakete um um die Ecke einkaufen zu fahren.

seppe513 
Fragesteller
 20.07.2018, 12:27

Hallo Markus,

danke für deine Mühe! Das nenne ich mal eine ausführliche Antwort.

Mit dem DVD-Laufwerk hatte ich keine Probleme. Ich nutze es nur sehr selten. Kaputt gegangen ist mir da noch nie was.

Ok, dann werde ich wohl von meiner 10 Jahres Forderung Abstand nehmen, denn 2000 € will ich bestimmt nicht in einen PC investieren.

Dein Hinweis ich sollte auf Linux wechseln, ist schwierig für mich gleich zu antworten. Das würde für mich erstmal viel Arbeit und Umgewöhnung bedeuten. (Welche meiner Software läuft drauf - Virenprogramm, Wiso Finanzsoftware (wohl nicht), Sparkassen Finanzsoftware  Lightroom, etc.)

Vielleicht brenn ich mir mal tatsächlich die Kubunto CD und spiel mich ein bisschen.

Danke für den Hinweis bzgl. MS WIN 10 Upgrade Problemen.

Was für Vorgaben wünschst du dir noch? Ich dachte, ich hätte jetzt schon sehr gut umrissen, was ich mit dem PC anstellen möchte. Auf jeden Fall kein zocken oder Videoschnitt.

Jörg

0
MarkusGenervt  20.07.2018, 14:16
@seppe513

Wenn Du kein Zocken und Videoschnitt machst, dann reicht eine olle Jucke völlig aus. Doch das Problem mit Win10 sind eben die Mindestanforderungen an die Hardware, die keine "olle Jucke" mehr gestatten. Und jetzt wird es teuer.

Viren gibt es unter Linux nicht. Linux ist ein sog. Unix-artiges System, wie die meisten andern Betriebssysteme, und hier ist das System so völlig anders aufgebaut, dass Viren und Hacks und der ganze Kram hier keine Chance haben. Das ist so, als ob eine Mücke einen Felsen anpieksen möchte und bei Windows ist es so, als ob ein Spaten in eine Qualle sticht – um es mal zu verbildlichen.

Aber der Umstieg ist mit modernen Linux-Komfort-Distributionen wirklich nicht erwähnenswert. Im wesentlichen sind die Unterschiede:

  • Die Namen sind etwas anders, aber im Prinzip auch ähnlich. Da heißt der "Task-Manager" z.B. im KDE-Desktop "Systemmonitor" und der "Windows-Explorer" heißt "Dolphin".
  • Die Pfade sind anders. Unter Windows gibt es die Laufwerks-Hierarchie. Da ist der Pfad zu Deinen eigenen Dateien z.B. bis XP "C:\Dokumente und Einstellungen\Jörg\Eigene Dateien" und ab Vista "C:\Users\Jörg\Documents". Unter Linux liegt das schon seit Jahren unter "/home/jörg/Dokumente". Deine Partition hingegen findest Du nicht mehr unter "C:", sondern unter "/media/jörg/Windows XP", wenn die "C:"-Partition bei Dir das Label "Windows XP" hat.
  • Du brauchst den ganzen System-Krempel hier nicht und darin liegt die Sicherheit von Linux. Jedesmal, wenn Du am System etwas ändern willst (z.b. ein Programm de/installieren), musst Du Dein Passwort eingeben. So kann (einfach gesagt) niemand was an Deinem Rechner manipulieren und Dein Rechner ist einfach sicher. In deinem eigenen Daten-Bereich kannst Du machen, was Du willst. Du kannst Dir sogar alle Deine Dateien selbst löschen, doch das System steht weiter wie eine Eins!. Aber es kann auch niemand anders Deine Dateien löschen – es sei denn er sitzt wie Du am gestarteten PC.

Das war's im Prinzip schon. Ach, das hab ich vergessen:

  • Alle Programme sind kostenlos und aus einer zentralen Quelle (den sog. Repositories, kurz Repos) ganz leicht zu installieren. Die Repos werden vom Anbieter erst mal auf Herz und Nieren überprüft und unter Ubuntu & Co. auf Stabilität und Sicherheit durchgetestet. Da klickt man einfach aus der Programm auswahl sein Wunschprogramm an und innerhalb weniger Augenblicke ist das Ding fertig installiert. Du wirst Dich noch richtig lange wundern, wie unkompliziert und schnell so ein Programm-Installation tatsächlich auch gehen kann!

Aber es gibt hier einen Haken: Windows-Programme laufen nur unter Windows.

Doch Linux wäre nicht so genial, wenn es hier nicht einen ausgereiften Trick gäbe:

WINE

Wine ist so etwas wie eine Übersetzungs-Schnittstelle zwischen einem Windows-Programm und dem Linux-System, so dass man damit einen Großteil der Windows-Programme inzwischen unter Linux laufen lassen kann. Doch selbst vireninfizierte Programme haben hier immer noch keine Chance.

Ein weiteres ähnliches Werkzeug ist

MONO

Das ist die freie und kostenlose Alternative zu Microsofts .NET-Umgebung, welches selbst wiederum eine Zwischenschicht zwischen Programm und System darstellt und für die meisten neueren Programme benötigt wird. Auf diesem Weg können .NET-Programme dann noch unproblematischer unter Linux laufen.

Und wenn alle Stricke reißen und Du so ein Super-Dupa-Spezial-Programm hast, dass so eng an Windows gebunden ist und so selten ist, dass hier noch niemand Wine hierfür angepasst hat, dann gibt es immer noch eine Virtuelle Maschine, wie z.B. das auch unter Windows bekannte VirtualBox, in der man XP oder Win7 installieren kann, was auch keine Updates benötigt und dann kann man dort seine Programme installieren.

VirtualBox ist in manchen Dingen teilweise sogar schneller als ein physisches installiertes Windows, denn in der Virtuellen Machnine wird eine einfache und schnelle HArdware simuliert, die dann durch Linux noch schneller auf die reale Maschine übersetzt werden kann. Mein XP in VirtualBox ist noch nie so flott gelaufen!!!

Aber ich als IT-Profi habe bisher nichts wirklich unter WINE benötigt, was es nicht bereits als bequeme Alternative unter Linux gibt. Zum Beispiel:

  • für foobar2000 (läuft super mit Wine) gibt es DeaDBeef,
  • für Irfanview (läuft auch mit Wine) gibt es z.B. XnViewMP,
  • für Adobe Phototshop gibt es GIMP,
  • für MS Office gibt es LibreOffice (neuer Zweig von OpenOffice), was ich auch schon unter Windows genutzt habe
  • für WinZip, WinRAR oder 7zip gibt es PeaZip (alles in einem!)
  • Firefox, Thunderbird, VLC Media Player, uvm. läuft nativ,
  • usw. usf.

Nur auf die typischen Windows-Katastrophen wie IE muss man hier verzichten. Aber ich denke, dass das niemandem weh tun sollte, denn alles andere ist besser.

→→ weiter in Teil 2 →→

0
MarkusGenervt  20.07.2018, 14:17
@MarkusGenervt

→→ hier Teil 2:

StarMoney läuft ebenfalls unter Wine stabil und sicher.

Leider sieht es mit WISO nicht so rosig aus. Hier müsstest Du tatsächlich auf die Virtual Machine mit einem "Windows in der Box" ausweichen. Allerdings gibt es hier auch richtig viele Alternativen unter Linux/Ubuntu. Hier mal ein Überblick:

https://wiki.ubuntuusers.de/Finanzverwaltung/

Lightroom läuft auch unter Wine, aber es gibt auch hier wieder sehr gute native Linux-Alternativen wie z.B. Darktable.

Unter https://wiki.ubuntuusers.de/ findest Du ein exzellente deutsches Ubuntu-Wiki. So was hätte man mal von so einem Kommerz-System wie Windows längst erwarten dürfen und ich habe hier von Microsoft in der ganzen Zeit ihres Bestehens nie erlebt! Selbst heute im Internet-Zeitalter hat Micrososft es nie für nötig gehalten, ein Windos-Wiki zu erstellen. Das Wissen mussten sich alle Profis mühsam zusammen kratzen oder für die M$-Kurse einen Haufen Geld bezahlen! Die Top-Linux-Distros schütteln so was locker aus dem Ärmel.

Summa summarum ist der springende Punkt aber, dass Du für Windows 10 – und auch alle zukünftigen Windows – einen Haufen Geld für die Hardware ausgeben musst, denn Microsoft kassiert jetzt nicht mehr nur bei Windows ab, sondern verdient bei Intel mit und unterm Strich wird Windows immer aufgeblähter für Null-Zusatznutzen – außer im Gamer-Sektor. Das trifft Dich also nicht mal peripher.

Auf der anderen Seite werden Linux-Distros immer bequemer – stabil, sparsam und sicher waren sie ohnehin schon immer – und auch die Alternativ-Software wird immer umfangreicher. WineHQ – die Hersteller von Wine – arbeiten mit Hochdruck daran, Windows-Programme unter Linux laufen zu lassen und auch andere Linux-Programmierer arbeiten mit Hochdruck daran, typische Windows-Programme nativ für Linux zu erstellen und all das wird täglich mehr und täglich besser.

Es ist jetzt genau der richtige Zeitpunkt um umzusteigen. Windows-PC's werden immer teurer und Linux wird immer komfortabler.

Und wer Angst vor dem Umstieg hat, weil er befürchtet, nicht so schnell im neuen System klarzukommen, der baut sich einfach – ja einfach – ein Dual-Boot-System und wechselt einfach zwischen den Systemen, wenn es mal unter Linux nicht so klappt und man jetz keien Zeit zum Kennenlernen hat.

Das geht mit einer Festplatte von mindestens 128 GB superbequem und hier ist schon der übliche Speicher für eigene Dateien mit einberechnet – außer eben einem Audio/Video-Archiv.

Auch hierzu gibt es Tutorials ohne Ende.

Und dann natürlich die ersten Tests mit einer Live-DVD/USB-Stick, die gar keine Änderungen am System vornimmt.

0