Computer ohne Binärzahlen (Einzen und Nullen) und das 7x so schnell?

4 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Du vergisst bei all dem die materielle Grundlage des Ganzen: Halbleiterelektronik, die nur zwei Zustände kennt.

GFrageNFrage  21.09.2021, 22:00

Die kennt nicht nur 2 Zustände ...

Transistoren können beispielsweise auch nur halb geöffnet sein.

Das ist dann aber nicht mehr Digitaltechnik, sondern Analogtechnik.

0

Unterschiedliche Spannungen bedeuten heutzutage unnötige Leistungsverluste, da eher gezielt mit möglichst geringen HIGH-Spannungen gearbeitet wird. Ein Signal mit 300Hz in einem System zu integrieren, welches heutzutage schon mit Ghz arbeitet wäre äußerst ausbremsend. Ehe das Signal überhaupt als eine komplette Schwingung/Umpolung erkennbar ist, das dauert und dauert und dauert und dauert - aus der Sicht eines heutigen Prozessors ist 300Hz kein Signal sondern ein Dauerzustand, quasi informationslose Gleichspannung.

Glasfaserkabel sind für bestimmte Frequenzen optimiert. Ebenso die Sende- und Empfangsinfrarotdioden (oder was da grad benutzt wird). Die Grenzen lägen hier wahrscheinlich zusätzlich auch in der Wiederzusammenführung der Informationen, was ja wieder zusätzliche Schaltungen, elektronische/digitale erfordert.

Außerdem gibt es durchaus zahlreiche parallel arbeitende Schnittstellen, bzw. interne Datenverarbeitung die nicht! bitweise funktioniert. Wahrscheinlich in einem normalen Multimedia-"Rechner" sogar viel öfter, als eine reine Bitverarbeitung.

Die einzelnen Bits z.B. eines Buchstabens werden allerdings nicht seriell verarbeitet, sondern parallel. Das war bereits bei einem 8bit-Prozessor so, heutige 64bit-Prozessoren haben entsprechend eine größere Bandbreite, die gleichzeitig verarbeitet werden kann.

Ein z.B. 0x41 bzw. 0b01000001 (ein großes "A") wird im Prozessor in einem Zug an 8 Datenleitungen übergeben. Nur bei serieller Übertragung wird ein Bit nach dem anderen versendet, zusätzlich noch ggf. ergänzt durch Start-/Stop- und Paritätsbits.

Ansonsten schau Dir mal das Prinzip von Analogrechnern an. Da wird im Wesentlichen etwas Ähnliches getan, was Dir vorschwebt. Allerdings haben sich diese Konzepte nie wirklich durchgesetzt.

Ansonsten wären da noch die Quantencomputer, die vom Prinzip der reinen Digitalwelt abrücken.

Da Computer grundsätzlich nur AN oder AUS kennen, würdest Du in diesem Fall eine schlichte Kodierung erhalten, bei welcher eine Kombination aus AN/AUS den Buchstaben A darstellt.

Wie gesagt: KODIERUNG! Mehr ist das tatstächlich nicht - und ob Du es glaubst oder nicht: Genauso arbeiten alle Computer ;-) Man hat irgendwann festgelegt, dass (nur als Beispiel) 10100101 A bedeutet. Das ist ein ganz normaler Oktalcode.

Den kann man verwenden, wurde in früheren Tagen der Computerrei auch verwendet, bis dass sich der Hexdezimalcode als universelle Kodierung durchgesetzt hat.

Im Endeffekt war Deine eben nur, dass man die 8 Bits parallel übermittelt - und nicht seriell!

Tatsächlich gabe es das früher auch schon mal. Die ersten Computerschnittstellen waren parallel Drahtmonster. Eine Parallel-Schnittstelle hat unter dem Namen Centronics (IEEE-1284) bis in die späten 2000er auch im PC-Bereich überlebt. Hier wurden tatsächlich 8 Signale zeitgleich übermittelt - in der Regel an Drucker.

Parallele Schnitstellen sind durch den Siegeszug von USB (einer seriellen BUS-Schnittstelle) nahezu ausgestorben.

Damit ist Deine Idee leider weder Neu noch innovativ ;) Tut mir leid.