Ist alles was heutige Computer (o.ä) verarbeiten/speichern automatisch digital?
abgesehen natürlich von Computerprogrammen/Apps, die nach Vorgabe etwas von digital in analog umwandeln.
4 Antworten
Übliche PCs arbeiten ausschließlich digital. Alles was, wie auch immer, verarbeitet wird, wird, wenn nicht schon digital, digitalisiert: Jede Mausbewegung, Tonaufnahme, was auch immer wird grundsätzlich digitalisert, Bilder auch, ob in 'ner Kamera, 'nem Scanner oder wo auch immer.
Musik, Ton auch, zuallermeist sogar dynamisch so komprimiert (mp3, mp4, ...), dass die Information angepasst an menschliches Hörvermögen inhaltsabhängig verschieden komprimiert wird durch "Weglassen" von Informationen, die man üblicherweise eh nicht wahrnimmt.
Digitalisierung bedeutet IMMER auch Informationsverlust! Man versucht auf allen Ebenen diesen Verlust so gering als möglich zu halten (siehe z. B. Bildschirmauflösungen, Pixelzuwachs, ...) aber dennoch alles was digitalisiert wird grundsätzlich mit Detailverlust verbunden. Auch wenn das dann "analogisiert" wird, bleibt der Informationsverlust erhalten, "glattpolieren" bedeutet nicht Wiederherstellen ALLER Informationen.
<<< dass es analoge Erweiterungskarten geben wird, >>> Davon habe zumindest ich noch nichts gehört, gelesen. Da müsste dann die Verarbeitung - ohne jede Digitalisierung - vom Eingang zum Ausgang voll analog, also ohne irgendwelche Umwandlung DA -> AD erfolgen.
Natürlich wird aus 64bit, 128bit, ... irgendwann "Millionen" (mindestens) bit werden, Grafikkarten sind da ja schon auf bestem Wege.
Aber unsichtbar heißt nicht, nicht vorhanden. Bei irgendwelchen rekursiven Rechnereien wird das immer Fakt bleiben.
Da müsste dann die Verarbeitung - ohne jede Digitalisierung - vom Eingang zum Ausgang voll analog, also ohne irgendwelche Umwandlung DA -> AD erfolgen
Die Karte arbeitet analog, und rechnet dann Eingang und Ausgang jeweils um, der PC drum herum arbeitet digital.
Natürlich wird aus 64bit, 128bit, ... irgendwann "Millionen" (mindestens) bit werden, Grafikkarten sind da ja schon auf bestem Wege.
Millionen bit Bandbreite wird es garantiert nie geben, das gibt die Physik nicht her, vorher gibt es andere Technologien.
Und ich rede nicht von Grafikkarten, sondern von spezifischen Berechnungen. Z.B. der Logarithmus ist (wenn ich mich richtig erinnere) mit einer analogen Schaltung quasi Nebensache, während eine digitale Berechnung ziemlich aufwändig ist.
Und für sowas wie Machine Learning ist das ein Thema, da dort sehr viele Berechnungen nötig sind, die sich analog deutlich beschleunigen ließen.
Na, da bin ich dann gespannt auf die zukünftigen Entwicklungen... Mit "Millionen" wollte ich ja nur den Trend darstellen.
Letztlich sind auch analoge Schaltungen nicht absolut frei von Fehlern, ich sage nur Rauschen...
Unsere herkömmlichen Computer können nur mit digitalen Daten umgehen. (Alternativen dazu wären Analogrechner und ggf. Quantencomputer.)
Es gibt aber Schnittstellen, die Analog zu Digital wandeln können - z.B. Maus, Videokarten, die analoge Signale verarbeiten können, Soundkarte,...
Ebenso gibt es Schnittstellen, die Digital zu Analog wandeln können, populärstes Beispiel ist sicher ebenfalls die Soundkarte, aber im Prinzip auch Drucker und Bildschirme.
Computer können nur "digital". Für einen Computer ist auch ein Ausgabemedium digital, selbst wenn es uns als Bild, Text oder Film erscheint.
Eben. Dann hast du ein bedrucktes Blatt Papier. Für den Computer ist das aber keine Analogumwandlung; er (bzw. das entsprechende Programm) stellt es nur so dar, damit du etwas damit anfangen kannst.
Natürlich kannst du jede Ausgabe als analog bezeichnen, doch das liegt vor allem daran, dass wir Menschen eben nur analoge Sachen wahrnehmen können.
Da wird es generell verschiedene Ansichten geben. Wenn ich z.B einen Zeiger auf dem Bildschirm darstelle, dann ist es ja auch wieder eine digitale Anzeige, die lediglich einem analogen Gerät nachempfunden ist. Für den Prozessor selbst macht das natürlich keinerlei Unterschied und wird so oder so immer digital verarbeitet.
Was verstehst du unter analog umwandeln? Ich versteh da ausdrucken oder auf Magnetbändern speichern (VHS, Musiktape).
Könnte sich aber in den nächsten Jahren ändern.
Die Hersteller ringen schon lange nach Wegen, die Hardware leistungsstärker zu machen und es wird immer schwieriger, gerade im immer wichtiger werdenden Bereich für Machine Learning wird das aber ein Problem.
Ich könnte mir daher vorstellen, dass analoge Berechnungen wieder zurück kommen werden, die sind zwar schwer zu warten, aber deutlich schneller, viele Berechnungen sind deutlich einfacher und solche ziemlich komplizierten Themen wie das Multi Threading sind kein Problem mehr.
Der Computer wird natürlich immer noch digital arbeiten, aber ich könnte mir vorstellen, dass es analoge Erweiterungskarten geben wird, die dann irgendein Art von Berechnung durchführen.
Für privat eher wenig relevant, aber im professionellen Bereich oder für Militär und Raumfahrt ist das vermutlich schon heute ein Thema.