Eigentlich müsste man bei sovielen Kommentaren nichts mehr schreiben, aber leider stimmt das alles nur zum Teil.
In den Top500 der Rechner geht es um "Super Computer" - diese wiederum sind nur für High Performance Computing da und eher selten für WEB, FTP, LDAP, Mailing, usw. => wenn diese Rechner diese Aufgaben erledigen, dann nur zu einem verschwindend geringen Prozentsatz. Suchmaschinen und Mailserver skalieren ganz gut und werden eher aus einzelnen Servern zusammengebaut (bestes Beispiel ist Google - die haben über eine Million Server, das sind aber alle einzelne Rechner). Dort wo man aber schlecht "Aufgaben verteilen" kann, muss man versuchen, anders zu skalieren (es sind dann zwar immer noch viele einzelne Nodes - allerdings werden diese mit einen High-Performance Netz wie z.B. InfiniBand oder Myrinet zusammen verschalten - da sieht 10G Ethernet echt lahm aus).
Wir verwenden im Banking Bereich z.B. etliche Power 7+ Systeme mit 4,22 GHz, wo ein einzelnes System 64 Prozessoren (das stellt sich als ein "Image" dar) haben kann. Wenn man auf das grösste der IBM setzt (p795, nur mit Power7, nicht P7+), dann kann man eine Betriebssysteminstallation bauen, die bis zu 256 Prozessoren hat (in einer Fullsystem Partition - das bedeutet keine Virtualisierung - würde man dann logisch 1024 Prozessoren sehen, da die IBM bei Power 7 bis zu 4 Threads auf einen Prozessor bringt (SMT4) - bei Intel mit Hyperthreding sind es maximal 2). Generell skalieren Power 7 Prozessoren besser als jene von Intel. Sie kosten dafür aber auch ein vielfaches.
Hier wird das Thema Super Computer recht gut erklärt :
http://de.wikipedia.org/wiki/Supercomputer
Nun ist Linux eine gute Grundlage, da es sehr schnell an bestimmte Hardware-Spezialitäten, die man in der Grossrechner-Kategorie findet, angepasst werden kann (Thema OpenSource).
Die schnellsten Rechner der Welt erledigen eher Aufgaben wie Wetterberechnungen, Atom-Explosions-Modell-Berechnung, Verschlüsselungs-Aufhebung (also Knacken ;-) ), Proteinzerfallsberechnung (Krebsforschung) und viele andere wissenschaftliche Aufgaben. Dort wo man eben viele Berechnungen auf einzelnen Systemen nicht mehr bewältigen kann und daher massiv parallelisieren muss - Linux ist dafür besser geeignet als Windows.
Manche dieser Dinge können mit entsprechendem Aufwand auch in Form von externer Verteilung bewältigt werden (SETI@home und Folding@home - beides interessante Projekte, wo die "Menschheit" mit Ihren Playstations angezapft wird - da werden Jobs ausgelagert und falls mal einer sein System vor Ende der Berechnung abschaltet, bekommt den Job jemand anderer. Diese Dinge sind nicht zeitkritisch und können daher eher auf "unzuverlässige" Rechenknoten verteilt werden).
Und was hier Linux zugute kommt, ist dass man in diesen Anwendungsgebieten keinen Desktop braucht, der laufend irgendwelche Dinge animiert, udgl.
Je nach Anforderung benutzt man das passende System - Linux ist auf dem Desktop nicht wirklich konkurrenzfähig, was sich hoffentlich mit Wayland (und möglicherweise auch mit Mir für Ubuntu) ändern wird.
Allerdings sollte man auch sehen, dass vorwiegend in bestimmten Bereichen Linux als Betriebssystem einem Windows vorgezogen wird (zumindest in Rechenzentren und Universitäten). Das ist der Bereich DNS, WebServer mit Apache und MySQL, LDAP, SFTP, SSH, Mailing, .... hier hat LinuxHase das korrekt dargestellt und auch nicht "geschrien" - diese Produkte schreibt man nun mal gross ;-}}
OpenSource the Planet ;-)
https://www.youtube.com/watch?v=ZCbb0Kt2IOw