Medieninformatik Digitalisierung Datenrate Textaufgabe?

2 Antworten

Du musst berechnen wie groß ein Bild ist (Länge*Breite*Speicherbedarf pro Pixel)*Bilder pro Sekunde für's Kino (ich nehme an das sind 24).

Dann vergleichst du ob dein Ergebnis kleiner oder größer ist als 3.96GBits (kleiner Tipp HDMI1 würde nicht reichen).

Ist ziemlicher Kindgarten sofern du einen Taschenrechner hast.


susan2222 
Fragesteller
 10.11.2018, 21:00

ich habe jetzt 4096*2160*36 = 318.504.960 Bit = 0,32 GBit/s gerechnet.

Dann diese 3.96Gbits / 0,32 Gbits = 12 . Sind das jetzt 12 Bilder/s oder hab ich da was falsch gerechnet, weil du ja meintest da müsste 24 bei rauskommen?

0
KolnFC  10.11.2018, 21:07
@susan2222

Du hast richtig gerechnet, also, deine Antwort ist: Nein, HDMI 1.0 reicht nicht als Verbindung, da es gerade mal die Hälfte der benötigten Bilder pro Sekunde liefern kann.

0
susan2222 
Fragesteller
 10.11.2018, 21:42
@KolnFC

Okay.Vielen lieben Dank für deine Hilfe

0

Ich will mal nichts zum Rechenweg schreiben. Das haben andere schon gemacht. Nur noch ein paar Dinge am Rande beisteuern, weil eine einfache Ja/Nein-Antwort bzw. "richtig/falsch" hier zu kurz greifen würden.

Man kommt auf irgendwelche dreikommairgendwas GBps, die da gebraucht werden/würden. Aber zwei Faktoren bleiben bei der einfachen Rechnung unberücksichigt:

  1. Man kann die zu übertragenden Daten verlustfrei komprimieren (z. B. Hufmann-Algirithmus drüberjagen oder bestimmte LZW-Varianten). Dadurch reduziert sich das Datenvolumen unter Umständen erheblich (ggf. mehr als 50 %). Man benötigt aber beiderseits viel schnelle CPU-Kapazität, um echtzeitnah rechnen zu können.
  2. Es stellt sich die Praxisfrage, ob man 36bittige Einzelwerte überhaupt aus Effizienzgründen so weit "zusammenschieben" will (also auf Bit-Ebene), oder ob es günstiger, pro Px sogar 40 Byte (= 5 Bytes), 48 oder sogar 64 Bytes (= 8 Bytes) zu allokieren. Das kann insofern interessant sein in einem Fernseher oder Projektor, als dass möglicherweise der Chip/das Subsystem, was die eigentliche Darstellung des Bildes vornimmt, DMA-fähig ist und entsprechend halt die Daten direkt im Speicher in einer bestimmten Form, und auch mit adressierungstechnisch günstigem Alignment haben will. In einer Welt, wo mindestens 32bittige Infrastrukturen auch bei komplexeren Kleingeräten existieren, hätte man also bei 64 bit gerade die Kante überschritten, wo man je nach konkretem Hardwareaufbau besser damit bedient ist, direkt 64bittig zu übertragen.

Insofern ist also insgesamt die Antwort meines Erachtens nicht einfach mit "ja/nein" zu beantworten, weil Nebenbedingungen zu klären.

Dennoch: HDMI1 ist da grenzwertig. Es kommt ja auch noch etwas Protokoll-Overhead "on top".

-----

Und dann mal die rein protokolltechnische Betrachtung: HDMI 1.0 wurde für 1920x1080 bei 60 Hz spezifiziert. D. h. mehr geht nicht, wenn Du damit Standardgeräte ansteuern willst.

Die obige Betrachtung soll nur aufzeigen, dass man rein hardwaretechnisch gesehen auf der selben Schnittstelle auch andere Möglichkeiten hätte, wenn man das Übertragungsformat ändert und z. B. Kompression einsetzt.