Ist alles was heutige Computer (o.ä) verarbeiten/speichern automatisch digital?

4 Antworten

Übliche PCs arbeiten ausschließlich digital. Alles was, wie auch immer, verarbeitet wird, wird, wenn nicht schon digital, digitalisiert: Jede Mausbewegung, Tonaufnahme, was auch immer wird grundsätzlich digitalisert, Bilder auch, ob in 'ner Kamera, 'nem Scanner oder wo auch immer.

Musik, Ton auch, zuallermeist sogar dynamisch so komprimiert (mp3, mp4, ...), dass die Information angepasst an menschliches Hörvermögen inhaltsabhängig verschieden komprimiert wird durch "Weglassen" von Informationen, die man üblicherweise eh nicht wahrnimmt.

Digitalisierung bedeutet IMMER auch Informationsverlust! Man versucht auf allen Ebenen diesen Verlust so gering als möglich zu halten (siehe z. B. Bildschirmauflösungen, Pixelzuwachs, ...) aber dennoch alles was digitalisiert wird grundsätzlich mit Detailverlust verbunden. Auch wenn das dann "analogisiert" wird, bleibt der Informationsverlust erhalten, "glattpolieren" bedeutet nicht Wiederherstellen ALLER Informationen.

Palladin007  21.01.2023, 09:48

Könnte sich aber in den nächsten Jahren ändern.

Die Hersteller ringen schon lange nach Wegen, die Hardware leistungsstärker zu machen und es wird immer schwieriger, gerade im immer wichtiger werdenden Bereich für Machine Learning wird das aber ein Problem.

Ich könnte mir daher vorstellen, dass analoge Berechnungen wieder zurück kommen werden, die sind zwar schwer zu warten, aber deutlich schneller, viele Berechnungen sind deutlich einfacher und solche ziemlich komplizierten Themen wie das Multi Threading sind kein Problem mehr.

Der Computer wird natürlich immer noch digital arbeiten, aber ich könnte mir vorstellen, dass es analoge Erweiterungskarten geben wird, die dann irgendein Art von Berechnung durchführen.

Für privat eher wenig relevant, aber im professionellen Bereich oder für Militär und Raumfahrt ist das vermutlich schon heute ein Thema.

0
CatsEyes  21.01.2023, 10:06
@Palladin007

<<< dass es analoge Erweiterungskarten geben wird, >>> Davon habe zumindest ich noch nichts gehört, gelesen. Da müsste dann die Verarbeitung - ohne jede Digitalisierung - vom Eingang zum Ausgang voll analog, also ohne irgendwelche Umwandlung DA -> AD erfolgen.

Natürlich wird aus 64bit, 128bit, ... irgendwann "Millionen" (mindestens) bit werden, Grafikkarten sind da ja schon auf bestem Wege.

Aber unsichtbar heißt nicht, nicht vorhanden. Bei irgendwelchen rekursiven Rechnereien wird das immer Fakt bleiben.

0
Palladin007  21.01.2023, 10:26
@CatsEyes
Da müsste dann die Verarbeitung - ohne jede Digitalisierung - vom Eingang zum Ausgang voll analog, also ohne irgendwelche Umwandlung DA -> AD erfolgen

Die Karte arbeitet analog, und rechnet dann Eingang und Ausgang jeweils um, der PC drum herum arbeitet digital.

Natürlich wird aus 64bit, 128bit, ... irgendwann "Millionen" (mindestens) bit werden, Grafikkarten sind da ja schon auf bestem Wege.

Millionen bit Bandbreite wird es garantiert nie geben, das gibt die Physik nicht her, vorher gibt es andere Technologien.

Und ich rede nicht von Grafikkarten, sondern von spezifischen Berechnungen. Z.B. der Logarithmus ist (wenn ich mich richtig erinnere) mit einer analogen Schaltung quasi Nebensache, während eine digitale Berechnung ziemlich aufwändig ist.
Und für sowas wie Machine Learning ist das ein Thema, da dort sehr viele Berechnungen nötig sind, die sich analog deutlich beschleunigen ließen.

0
CatsEyes  21.01.2023, 10:31
@Palladin007

Na, da bin ich dann gespannt auf die zukünftigen Entwicklungen... Mit "Millionen" wollte ich ja nur den Trend darstellen.

Letztlich sind auch analoge Schaltungen nicht absolut frei von Fehlern, ich sage nur Rauschen...

0

Unsere herkömmlichen Computer können nur mit digitalen Daten umgehen. (Alternativen dazu wären Analogrechner und ggf. Quantencomputer.)

Es gibt aber Schnittstellen, die Analog zu Digital wandeln können - z.B. Maus, Videokarten, die analoge Signale verarbeiten können, Soundkarte,...

Ebenso gibt es Schnittstellen, die Digital zu Analog wandeln können, populärstes Beispiel ist sicher ebenfalls die Soundkarte, aber im Prinzip auch Drucker und Bildschirme.

Computer können nur "digital". Für einen Computer ist auch ein Ausgabemedium digital, selbst wenn es uns als Bild, Text oder Film erscheint.

HarryXXX  21.01.2023, 07:50

Ein Papierausdruck wäre aber dann ein analoges Ergebnis.

0
Traconias  21.01.2023, 07:55
@HarryXXX

Eben. Dann hast du ein bedrucktes Blatt Papier. Für den Computer ist das aber keine Analogumwandlung; er (bzw. das entsprechende Programm) stellt es nur so dar, damit du etwas damit anfangen kannst.

Natürlich kannst du jede Ausgabe als analog bezeichnen, doch das liegt vor allem daran, dass wir Menschen eben nur analoge Sachen wahrnehmen können.

0
HarryXXX  21.01.2023, 07:59
@Traconias

Da wird es generell verschiedene Ansichten geben. Wenn ich z.B einen Zeiger auf dem Bildschirm darstelle, dann ist es ja auch wieder eine digitale Anzeige, die lediglich einem analogen Gerät nachempfunden ist. Für den Prozessor selbst macht das natürlich keinerlei Unterschied und wird so oder so immer digital verarbeitet.

0
Traconias  21.01.2023, 08:05
@HarryXXX

Deine Frage ist, ob alles digital ist, was Computer verarbeiten. Dazu gibt es keine verschiedenen Ansichten. Es ist digital - egal, wie es dargestellt wird.

0
CatsEyes  21.01.2023, 08:30
@HarryXXX

Ja, aber mit Informationsverlust, wobei man sich natürlich Mühe gibt, diesen unsichtbar sein zu lassen.

0

Was verstehst du unter analog umwandeln? Ich versteh da ausdrucken oder auf Magnetbändern speichern (VHS, Musiktape).