Computer ohne Binärzahlen (Einzen und Nullen) und das 7x so schnell?
Beim Duschen kam mir eine Idee die mir im nachhinein garnicht mal so dumm vorkam.
Derzeitige Computer arbeiten mit Binäre Einzeln und Nullen in Form von "An" und "Aus" Zustände... Das benötigt allerdings 8 Signale hinter einander, um nur einen einzelnes Byte / Buchstabe daraus zu ermitteln anhand des BInäralphabets:
https://de.convertbinary.com/binaeralphabet-sehen-sie-die-alphabetischen-buchstaben-in-binaercode/
Was wäre aber wenn man den Buchstabe mit nur einem Signal bereits würde womit man direkt erkennen würde das dieses Signal ein A ist und ein anderes Signal ein B oder C oder ....
Z.b. Würde mir da in den SInn kommen mit verschiedenen Frequenzen oder Spannungen zu arbeiten das z.b. ein Signal mit 300hz übermittelt werdne würde was z.b. für ein A stehen könnte, und ein Signal mit 310Hz für ein B und so weiter und so fort und wenn das nicht mit Hz geht z.b könnte man solche muster auch mit Volt versuchen zu übermitteln. So müsste z.b. Prozessoren nicht ganze 8 Bits abwarten bis sie endlich überhaupt einen Buchstaben haben von einem gesammten Script von einem einzelnen Frame in einem Computerspiel z.b.
Glasfaserkabel könnte man auch noch immer benutzen für sowas mit z.b. Licht impulsen die ständig ihre frequenz ändern um direkte Bytes zu übertragen anstatt Bytes anhand von Bits erstmal sammeln zu müssen.
Theoretisch müssten dadurch Übertragungen über Lange distanzen und Berechnungen in Prozessoren 7x Schneller fertig werden, wenn Compiler ihre Maschienensprachen direkt in Buchstaben codieren anstatt erstmal Bits zu verarbeiten und aus dne bits die Buchstaben zu ergänzen um daraus Ergebnisse zu formen...
4 Antworten
Du vergisst bei all dem die materielle Grundlage des Ganzen: Halbleiterelektronik, die nur zwei Zustände kennt.
Unterschiedliche Spannungen bedeuten heutzutage unnötige Leistungsverluste, da eher gezielt mit möglichst geringen HIGH-Spannungen gearbeitet wird. Ein Signal mit 300Hz in einem System zu integrieren, welches heutzutage schon mit Ghz arbeitet wäre äußerst ausbremsend. Ehe das Signal überhaupt als eine komplette Schwingung/Umpolung erkennbar ist, das dauert und dauert und dauert und dauert - aus der Sicht eines heutigen Prozessors ist 300Hz kein Signal sondern ein Dauerzustand, quasi informationslose Gleichspannung.
Glasfaserkabel sind für bestimmte Frequenzen optimiert. Ebenso die Sende- und Empfangsinfrarotdioden (oder was da grad benutzt wird). Die Grenzen lägen hier wahrscheinlich zusätzlich auch in der Wiederzusammenführung der Informationen, was ja wieder zusätzliche Schaltungen, elektronische/digitale erfordert.
Außerdem gibt es durchaus zahlreiche parallel arbeitende Schnittstellen, bzw. interne Datenverarbeitung die nicht! bitweise funktioniert. Wahrscheinlich in einem normalen Multimedia-"Rechner" sogar viel öfter, als eine reine Bitverarbeitung.
Die einzelnen Bits z.B. eines Buchstabens werden allerdings nicht seriell verarbeitet, sondern parallel. Das war bereits bei einem 8bit-Prozessor so, heutige 64bit-Prozessoren haben entsprechend eine größere Bandbreite, die gleichzeitig verarbeitet werden kann.
Ein z.B. 0x41 bzw. 0b01000001 (ein großes "A") wird im Prozessor in einem Zug an 8 Datenleitungen übergeben. Nur bei serieller Übertragung wird ein Bit nach dem anderen versendet, zusätzlich noch ggf. ergänzt durch Start-/Stop- und Paritätsbits.
Ansonsten schau Dir mal das Prinzip von Analogrechnern an. Da wird im Wesentlichen etwas Ähnliches getan, was Dir vorschwebt. Allerdings haben sich diese Konzepte nie wirklich durchgesetzt.
Ansonsten wären da noch die Quantencomputer, die vom Prinzip der reinen Digitalwelt abrücken.
Da Computer grundsätzlich nur AN oder AUS kennen, würdest Du in diesem Fall eine schlichte Kodierung erhalten, bei welcher eine Kombination aus AN/AUS den Buchstaben A darstellt.
Wie gesagt: KODIERUNG! Mehr ist das tatstächlich nicht - und ob Du es glaubst oder nicht: Genauso arbeiten alle Computer ;-) Man hat irgendwann festgelegt, dass (nur als Beispiel) 10100101 A bedeutet. Das ist ein ganz normaler Oktalcode.
Den kann man verwenden, wurde in früheren Tagen der Computerrei auch verwendet, bis dass sich der Hexdezimalcode als universelle Kodierung durchgesetzt hat.
Im Endeffekt war Deine eben nur, dass man die 8 Bits parallel übermittelt - und nicht seriell!
Tatsächlich gabe es das früher auch schon mal. Die ersten Computerschnittstellen waren parallel Drahtmonster. Eine Parallel-Schnittstelle hat unter dem Namen Centronics (IEEE-1284) bis in die späten 2000er auch im PC-Bereich überlebt. Hier wurden tatsächlich 8 Signale zeitgleich übermittelt - in der Regel an Drucker.
Parallele Schnitstellen sind durch den Siegeszug von USB (einer seriellen BUS-Schnittstelle) nahezu ausgestorben.
Damit ist Deine Idee leider weder Neu noch innovativ ;) Tut mir leid.
Die kennt nicht nur 2 Zustände ...
Transistoren können beispielsweise auch nur halb geöffnet sein.
Das ist dann aber nicht mehr Digitaltechnik, sondern Analogtechnik.