Deine These ist falsch.
Digital besagt, dass die Daten mit Zahlen dargestellt werden können. Im Normalfall verstehen wir unter digital auch "binär", also durch Bits (1 und 0) dargestellt.
Ein reiner Ton z.B. ist erst einmal analog, denn er ist nicht durch eindeutige Werte definierbar, sondern besteht aus Wellen.
Bei der Digitalisierung wird jetzt vereinfacht gesagt, jeder Millisekunde ein Wert zugewiesen, der die Tonhöhe ausdrückt.
Daher ist die analoge Form in diesem Beispiel genauer.
Wenn du z.B. von Bildübertragung sprichst, dann beziehst du dich vermutlich in erster Linie auf die moderne Verwendung des VGA-Anschlusses, der eigentlich nur aus Kompatibilitätsgründen entwickelt wurde.
Früher wurden Bilder ebenfalls analog übertragen (da sie auch so erzeugt wurden, z.B. durch Projektion), als jedoch die ersten digitalen Kameras und Computer entwickelt wurden, wurde die analoge Bildübertragungstechnik dafür übernommen. So mussten die die digitalen Daten zunächst in analoge umgewandelt werden (wobei immer ein Datenverlust erfolgt) und am Ausgabemedium anschließend wieder digitalisiert werden.
Wenn du also einen modernen PC an einen Monitor anschließt, ist die Verwendung eines digitalen Übertragungsmediums (z.B. DVI) besser, als die Verwendung von analogen Übertragungsmedien, wie VGA oder seriellen Anschlüssen.
Trotzdem bedeutet das nicht, dass analog ungenauer ist, als digital.
Es sind einfach zwei völlig unterschiedliche Signalstrukturen. Die eine in Wellen (analog) und die andere in Bits (digital).
LG,
Messoras