DaVinci Resolve : Videos automatisch Synchronisieren?

3 Antworten

Hallo

www.google.com/search?q=davinci+resolve+nle+timeline+synchronisation+tutorial

Ein/der NLE Editor vergleicht die Timeline und die Tonspuren von allen Filmschnippseln in einem Job Ordner. Damit kann man dann Kameras ohne Genlock und mit unterschiedlichen Lag Zeiten und unterschiedlichen Frameraten zusammenführen

Dann werden alle Filmschnippsel über die Tonspur auf die selbe Framerate synchronisiert. Wenn man regelmässig mit der Klappe klappert oder knallt geht das mit wenig Rechenzeit bzw fast in Echtzeit selbst wenn die Zweitkamera scheixx oder gar kein Ton hat die NLE Editoren vergleichen/analysieren dann denn Bildinhalt. Das dauert dann aber einige Zeit. Bei Musikvideos kommt es auf die Instrumente an und wieviele Details im Frame erkennbar/verfügbar sind.

Problem ist oft Schuss/Gegenschuss mit nur 1ner Tonspur und Kameramix mit NTSC (29,997 Frames) und PAL (25). Das war aber schon immer eine Katastrophe vor allem bei langen Scenelängen

Danach gibt es eine Mehrspur Filmclip übereinandnergestellt mit Zeitlineal und einen Mehrspur Tonclip übereinandergestellt mit Zeitlineal.

Zuerst macht man den Videoschnitt und danach macht man die Tonspur wenn man mehr Spuren hat und evtl unterschiedliche Tonfelder. Viele nutzen ja einen Fieldrecorder für denn Hauptton.

Waveform

1.) Die Tonspur wird in mehrere Frequenzbänder zerlegt also zb 500 - 1000 - 2000 - 4000 -8000 Hertz dort wird dann der Pegel ermittelt, das ergibt dann 5 Pegelspuren und sozusagen einen "Fingerabdruck"

2.) Die Videospur wird in mehrerer Streifen oder Kacheln zerlegt und in die Farbkanäle dort wird dann der Pegel ermittelt, das ergibt dann meherer Pegelspuren/pegelfelder und sozusagen einen "Fingerabdruck"

Beim digitalisieren von Signalquellen entsthet immer eine digitale Waveform. Digigtales Bild und digitaler Ton ist im Prinzip man speichert die Waveform 4 Dimensional und schmeisst den Rest unter der Pegelline weg. Insofern besteht MPG Ton und Video aus Waveformen je höher die Bit Auflösung um so genauer sind die Waveformen. Deswegen nutzt man meist 16 Bit PCM Ton und 16 Bit Cine RAW weil das ergibt einen präziseren Fingerabdruck als 8Bit Video und 8 Bit Ton

https://de.wikipedia.org/wiki/Puls-Code-Modulation

hast du deine Kameras mit Timecode versehen dann klappt das natürlich ganz wunderbar.
Irgendwelche Lösungen, die versuchen das Tonsignal zu erkennen und darauf passend diese abzugleichen sind darauf angewiesen, dass auch beide Kameras ein identisch gutes Tonsignal haben. Hast du das nicht so wie du das beschreibst, dann kann das natürlich auch nicht klappen.
Bliebe also nur dass du bei der Aufnahme dafür sorgst, dass du ein optisch und akkustisch nutzebares Signal in der Aufnahme hast... Stichwort: "Filmklappe" denn genau dafür nutzt man die natürlich. Oder wenn man sowas nicht hat dann halt das einfache "Hand zusammenklatschen" vor der Kamera

Wenn du da also nicht vorher bei der Aufnahme schon "richtig" gearbeitet hast, dann bleibt die wohl nur noch ganz manuell alles an die richtige Stelle zu schieben

Hi,

Schnell kannst du gleich vergessen.

Hast du denn bei der Aufnahme einen Synchronpunkt gesetzt/erstellt? So, oder ähnlich, wie man es von der Filmklappe kennt?

Wenn nicht, ist das das Erste, was du nachholen musst.

Hier ist ein schönes Tutorial dazu:

https://www.youtube.com/watch?v=ahn_M87thok