Die Aufgabe die du genannt hast ist für einen Erfahrenen Softwareentwickler im Grunde genommen nur eine Fingerübung. Bei professionellen Softwareentwicklungen besteht die erhöhte Schwierigkeit in der Regel allerdings nicht darin, kompliziertere Algorithmen zu entwickeln. Allerdings benötigt man allerlei Technologien zur Datenhaltung, Ausgabe, Containerframeworks und ähnliches. Und da muss man sich erst ein mal reinarbeiten und das ganze richtig konfigurieren und benutzen.

...zur Antwort

Informatik ist auf jeden Fall eines der schwierigeren Studienfächer. Aber es ist noch ganz gut machbar, solange man motiviert genug ist. Vorwissen schadet nicht. Um's mal im Vergleich einzuordnen (Achtung: Die Einschätzung gilt für die TU Darmstadt): Maschinenbau, Elektrotechnik und Mathe sind noch mal um einiges schwerer / härter.

Bei mir war es so dass ich mich im Grundstudium durch einige Veranstaltungen durchbeißen musste (Mathe, verschiedene Sachen aus der theoretischen Informatik). Danach war es zwar noch zeitaufwändig, aber einfacher mit guten Noten durchzukommen. Ich bin jetzt im 9. Semester.

Von E-technik in einem reinen Informatikstudium habe ich übrigens noch nichts gehört. Aber kann gut sein dass das an anderen Unis noch teil des Lehrplans ist.

...zur Antwort

Für Einsteiger empfiehlt es sich, zuerst eine sehr einfache Sprache zu lernen, die frei von technischen Details ist. Bei uns an der TU Darmstadt wird im ersten Semester Informatik mit Scheme gelehrt. Das Buch dazu heißt "How to Design Programs" und ist kostenlos online verfügbar (Google). Als Programmierumgebung empfiehlt sich Dr. Scheme (wieder Google). Scheme wird zwar von "Profis" nicht wirklich verwendet, aber es eignet sich gut um damit grundlegende Problemlösetechniken für das Entwickeln von Programmen sowie den allgemeinen Aufbau und die Funktionsweise einer Programmiersprache zu erlernen. Somit erleichtern die mit Scheme angeeigneten Fähigkeiten später das Erlernen und Arbeiten mit anderen Sprachen.

...zur Antwort

Nochmal zum Thema 1000/1024: Ursprünglich war 1Kb = 1024 Byte, das hängt damit zusammen wie Speicher im Computer adressiert wird. Diese basieren ja auf dem Binärsystem der Zahlendarstellung und daher ist 1024 im Binärsystem eine "glatte" Zahl und 1000 eben nicht. Da die Vorsilben Kilo-, Mega-, Giga- und so weiter aber genormt sind auf 1000, 1000000, 1000000000 usw. hat man die Einheiten irgendwann umdefiniert. Das heißt dass 1000 Byte = 1 Kilobyte mittlerweile korrekt ist. Die zweierpotenz nennt man Kibibyte, Mebibyte und Gibibyte. Das bedeutet dass 1024 Byte = 1 KiB (Kibibyte) = 1,024 KB (Kilobyte). Leider hat sich das aber nicht so ganz durchgesetzt. Aber es ist die korrekte Definition.

Das ist u.a. dafür mit verantwortlich dass von einer 200GB Festplatte nach dem Formatieren seltsamerweise einige GB fehlen. Denn Festplattenhersteller benutzen die 1000-Basierte Definition da die Zahlen sich so natürlich größer anhören. Die meisten Betriebssysteme verwenden aber immer noch die veraltete 1024-Basierte Definition.

Raaver und Jared haben es demzufolge auch schon korrekt beschrieben.

Mehr zum Thema: http://de.wikipedia.org/wiki/Byte#Pr.C3.A4fixef.C3.BCrgro.C3.9FeAnzahlenvon_Bytes

...zur Antwort

Also bei mir war am Anfang (8. Klasse oder so) der Informatikunterricht eher EDV, also wie man mit einer Textverarbeitung umgeht und ähnlich "spannende" Dinge.

Richtig interessant wird es erst in der Oberstufe. Da wird dann programmiert (leider meist Delphi, in Schulen mit zeitgemäßem Informatikunterricht eher Java). Dabei spielen vor allem Grundlegende Datenstrukturen und Algorithmen (Sortierverfahren usw.) die Hauptrolle.

Wenn man Glück hat und der Informatikunterricht ein hohes Niveau hat werden auch theorielastigere Themen wie z.B. Automatentheorie oder auch Verschlüsselungsverfahren behandelt. Das ist dann thematisch schon eher die Richtung, in die es auch in einem Informatikstudium geht.

...zur Antwort