Womit wurden Alvin und die Chipmunks animiert?

... komplette Frage anzeigen

2 Antworten

Ziemlich grundlegende Frage, es ist nicht ganz einfach die umfangreich zu beantworten

Dreamworks z.B. hat eine Kooperation mit Dell, mit denen sie unter anderem eine wesentlich einfache Software zum Animieren entwickelt haben. Diese wurde ab 2013 eingesetzt. Weiterhin werden für das Sculpting hauptsächlich zBrush eingesetzt. So ziemlich alles, von Charakteren, über Props, bis lose Background Models sind meistens gesculptet worden, egel ob hard surface oder organic modelling. Animieren tuen die meisten Freelancer oder kleineren Studios mit Maya, womit meistens auch die Rigs erstellt werden. 

Disney und Sony benutzen ähnliche Software. Entweder werden die dann noch auf das jeweilige Studio angepasst, da ja die "Großen" meistens eine eigene Abteilung dafür haben, oder sie werden separat entwickelt. Instudrial Light & Magic z.B. haben für VFX besondere Software für Fluid Animationen oder ähnliches. Gerade organischen Dingen, wie Wasser, Rauch, Feuer, Nebel, Wolken etc. bedarf es externen Software. 

Die am häufigsten benutzte Software, sowohl von Studios, als auch von Freelancern, wird wohl Autodesk Software, also Maya, 3ds etc. sein. Auch Disney greift gerade auf Maya zurück, um zu riggen und zu modellieren, teilw. auch fürs Animieren.

Wenn du dich nun aber fragst, wie eine solche Komplexität möglich ist, solltest du dir anschauen, welche Schritte bis zu so einem finalen Produkt durchlaufen werden.

Stehen Scripts und Storyboard (das Script mit gezeichnet Bildern, die die Handlung und die grobe erste Visualisierung darstellen, ähnlich einem Comic), werden Animatics angefertigt, als quasi ein animiertes Storyboard. Das ist sehr grob animiert und passiert alles handgezeichnet in klassischem 2D. Gleichzeitig werden für alles wichtige, also Charaktere, Background, Environment (also die Umwelt, das, worin der Film spielt) Konzepte angefertigt und mehrmals bearbeitet. Außerdem werden von wichtigen Charaktere und Objekten Studien angefertigt, also z.B. ein Close-Up von einem Gesicht um zu schauen, wie das Gesicht in verschieden Stimmungen und Ausdrücken aussieht, oder eine Figur in verschieden Kampfbewegungen.

Dann erst werden die ersten Dinge im 3D umgesetzt. Zuerst werden in 3D-Programmen, wie ob geschrieben, meist auf das jeweilige Studio angepasst und extra weiterentwickelt, meistens aber auf der Basis der großen, also Autodesk, Pixologic etc., die ersten 3D Modelle von so ziemlich allem angefertigt, das können Menschen sein (die eher gesculptet, also wie eine Tonfigur modelliert, mit Hilfe von virtuellen Werkzeugen und "Pinseln") oder Häuser, Möbel, Berge (die eher modelliert, also aus fester Geometrie erstellt und deformiert werden). Menschen werden dabei noch in eine typischen T-Pose "gestellt", um die anschließenden Schritte zu vereinfachen. Je besser modelliert, desto einfacher.

Anschließend werden die 3D-Modelle, die sich organisch, also von sich selbst aus, bewegen, "geriggt". Das ist quasi ein virtuellen Skelett womit das statische 3D-Modell bewegt werden kann. Diese Riggs simulieren in erster Linie Muskeln oder Gelenke. Je besser das Rig, desto realitätsnäher und flüssiger kann animiert werden. Rigs müssen an den richtigen Punkten sitzen und biologisch korrekt funktionieren und interagieren.

Anschließend wird das alles dann animiert, erste für jede Sekunde eine grobe Pose, und anschließend immer detaillierter. Vorher müssen dabei die Dialoge aufgenommen werden, damit die Animationen in der Originalsprache auf Lippenbewegungen und Synchronität animiert werden können. Je besser das Rig und das Modell war, desto besser und einfacher kann animiert werden. 

Für diese Animationen werden extra Szenen, also mit Hintergrund, Props (also so ziemlich allem, was nicht Hintetgrund ist und in der Nähe der Kamera unbeweglich herumsteht) und Charakteren, angefertigt. Das ist am Ende alles, was man in der Szene sieht.

Anschließend an die Animation wird geshadet und texturiert, also die Oberflächen werden realitätsnah simuliert und reproduziert, meistens anhand eines komplexen Editors und Algorithmus mit Farbmanipulation und -interpretation, dass z.B. "weiß/hell" als flach oder hoch und "schwarz/dunkel" als tief dargestellt werden.

Anschließend wird dazu ein Lightning Setup und Kamerafahrten angefertigt, sodass die Szene physikalisch und "filmlisch" korrekt beleuchtet ist und die Kamera die Animationen auffangen kann (das wird alles virtuele simuliert und läuft innerhalb verschiedener Programme ab).

Anschließend werden Simulationen, also z.B. Feuer, Explosionen, Wasser, Regen, Nebel, Wolken, also all das, was haptisch keinen festen Zustand hat, allerdings animiert bzw. simuliert werden muss, in die Szene, meistens mit extra physikalischen Teilprogrammen, die die Interaktionen der Partikel physikalisch korrekt abbildet, eingefügt.

Anschließend wird das ganze gerendert, also ein Prozess der Bildsynthese begonnen, der das ganze aus den 3D Programmen in ein bewegtes Bild umrechnet, das ist dann meistens das, was du im Kino siehst, also sorgt es dafür, dass alles, was in den Programmen angfertigt wurde, als Bildabfolge außerhalb der Programme wiedergegeben werden kann. Das geschieht in Rechenzentral, sogenannten Renderfarmen, da der rechnerische Aufwand immens ist und in der Größeneinheit von normalen Heimcomputern nicht nicht umsetzbar ist.

Anschließend findet noch Postproduktion statt, also Farb- und Kontrastkorrektur, leichtere Effekt u.ä. statt, bevor der visuelle Schaffensprozess abgeschlossen ist. 

Das ist der grobe Ablauf und anhand der (technologischen) Schritte kannst du dir die Komplexität, den Arbeitsaufwand und die Ressourcenvielfalt vielleicht vorstellen.

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von NikPlaysTV
27.10.2016, 15:58

Vielen dank für die ausführliche Antwort!

Jetzt weiß ich erst recht wie viel Arbeit bei so einem 3D Film drin steckt.

Aber jeder hat ja mal klein angefangen.

Vielen Dank! :)

0