Moin
–> ich kann es mir nur über den Farbraum (RGB) im Computer erklären;
Hat damit nix mehr zu tun. (Film-rechner arbeiten eh meisten YUV)
Gibt es irgendwelche Vorteile bei der Verwendung eines Green Screen
gegenüber eines Blue Screen??
Naja, wenn derSchauspieler einen Blauen Anzug tragen soll wird man Green-Screen nehmen… und umgedreht.
Prinzipell gehts mit jeder Farbe.
Gibt es eine Farbnormierung bei Blue Screen oder Green Screen,
nicht wirklich, die Systemen sind heute meist auf beliebige Farben einstellbar. Man stellt das System vor dem Drehen der Farbe in indem einmal kurz der leere Screen gefilmt wird.
Was und vor allem wie wurden die
Bewegungen der Schauspieler in den Computer übertragen?? per Motion Capture
glaub ich nicht, da die Schauspieler keinen Motion Capture Anzug anhatten!
… sicher ? Ich kenn den Film nicht, aber entweder das oder bei den Zeichnungen wurden einfach nur die gefilmten Schauspieler als Vorlage benutzt.
Es gibt zwar auch 3D-Laser-Scanner, das System ist aber noch lange nicht einsatzbereit.
Was und vor allem wie nehmen die Marker bei Motion Capture die Bewegungen
der Personen auf??? (über ein Koordinatensystem?)
Die Marker sollen einfach nur gut sichtbar sein. (Das sind kleine weisse Aufkleber, da ist keine Elektronik drin)
Der Schauspieler wird von X Kameras (mindestens 2, meistens mehr) gefilmt. Die Kameras laufen synchron, d.h. sie machen alle gleichzeitig ein Bild vom Schauspieler. In jedem Bild jeder Kamera werden die Marker von einem Rechner rausgesucht. Aus den Positionen der einzelnen Marker in den einzelnen Bildern der verschiedenen Kameras lässt sich dann die 3-D-Position des Marker ermitteln. Daraus wird dann ein Modell der Person errechnet,… der Rest ist einfach.
Wie funktioniert eigentlich Motion Tracking??? (im Raum werden sog. Marker
an beliebigen Stellen angebracht und dann???)
Die Positionen werden abgemessen (welcher Marker hat welche 3D-Koordinaten). Dann ermittelt ein Rechner im Filmmaterial die Positionen der Marker im Bild. Wenn ein Rechner mindestens 3 Marker sauber erkennt kann er aus den bekannten 3D-Positionen der Marker und der 2D-Position der Marker im Bild die Position der Kamera bestimmen.
Da dann die Kamerafahrt in 3D bekannt ist kann man relativ einfach künstliche Objekte ins Bild einfügen.
Wie kann man die Informationen die die Motion Tracking Points liefern im
Computer aufbereiten, dass man damit eine Motion Control Camera nach diesen
Punkten bewegen kann???
Die Theorie dazu hat etwa Telefonbuch-format… frag mal google.
Wie realisierte man die Spiegelungen (Wurm) bei The Abyss??? (hat man den
Raum vorher abfotografiert???)
im Prinzip: ja.
Der Wurm wurd im Rechner erzeugt und der Raum ebenfalls im Rechner nachgebaut. Die Wände wurden abfotographiert und als Textur für die Wände benutzt. Die Schauspieler wurden ebenfalls abgefilmt und als Video-Texture im Rechner-modell verbaut.
Danach musste nur noch der Wurm in das gefilmte Material eingebaut werden (damals von Hand)
Wie hat man die Person, die vom T-Rex auf der Toilette verspeißt wird (in
Jurassic Park), im Computer nachgebaut?? (ist diese Person überhaupt bei
der Interaktion mit dem T-Rex aus dem Rechner??, bzw. wie wurde diese Szene
realisiert???
Das ist auf der DVD genau erklärt. Die Kurzfassung:
Der Schauspieler sass tatsächlich auf dem Klo. Als der T-Rex-Kopf weit geung unten war wurde er durch eine virtuelle Puppe ersetzt. D.h. beim hochgehen des T-Rex-Kopfs ist schon alles im Rechner erzeugt worden.
Der Schauspieler hatte nie „Kontakt“ zum Kopf und der Kopf war nie in dem Toiletten-häuschen.
cu