Du bist nicht angemeldet.

Lieber Besucher, herzlich willkommen bei: Amateurfilm-Forum. Falls dies dein erster Besuch auf dieser Seite ist, lies bitte die Hilfe durch. Dort wird dir die Bedienung dieser Seite näher erläutert. Darüber hinaus solltest du dich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutze das Registrierungsformular, um dich zu registrieren oder informiere dich ausführlich über den Registrierungsvorgang. Falls du dich bereits zu einem früheren Zeitpunkt registriert hast, kannst du dich hier anmelden.

redgalaxy

Registrierter Benutzer

  • »redgalaxy« ist der Autor dieses Themas

Beiträge: 2

Dabei seit: 4. Januar 2019

  • Private Nachricht senden

1

Freitag, 4. Januar 2019, 18:05

Gemischte Framerates in Kinofilmen?

Hallo Forum,
ich hätte mal eine Frage die mich schon länger interessiert. Ich schaue unheimlich gerne Making ofs an und bin selber schon länger hobbymäßig im Filmbereich tätig.
Nun zu meiner Frage. In Actionfilmen (ich beziehe mich vor allem auf Hollywoodproduktionen) aber natürlich auch bei anderem Filmen gibt es ja häufig einen Wechsel zwischen Slowmotion Szenen und Szenen in Normalgeschwindigkeit also üblicherweise 24 fps. Werden die unterschiedlichen Framerates einfach so gemischt oder wird dabei darauf geachtet das die Szenen mit einer hohen Framerate genau den selben motion blur bekommen wie eine 24 fps Szene? Zur Erklärung was ich meine: Wenn ich eine Szene mit 60 fps auf eine Geschwindigkeit von 50% reduziere, bekomme ich ja nicht das selbe heraus, wie wenn ich mit 24 fps gefilmt hätte, da (wenn man die Regel mit der doppelten Verschlusszeit beachtet) die Bewegungsunschärfe dort anders ist. Wird da nochmal was an der Bewegungsunschärfe gemacht, damit die unterschiedlichen Szenen gleich aussehen oder ist der unterschied bei den schnellen Szenen einfach nicht wahrnehmbar? :)

Und noch eine zweite Frage, welche sich indirekt auf das selbe Thema bezieht.

In Actionfilmen gibt es ebenfalls viele schnelle Szenen, welche später mit allerlei CGI Effekten bearbeitet werden. Hier eine Beispielszene:

Bei 19:20 sieht man das das Schild von Captain America per CGI eingefügt wurde. Allerdings ist die Szene und die Bewegungen der Protagonisten ziemlich schnell.
Wie wurde so eine Szene getrackt bzw. 3D getrackt. Erfahrungsgemäß ist es ziemlich schwer schnelle Bewegungen zu tracken mit nur 24 Bildern pro Sekunde. Ich denke dabei inbesondere an das Tracking in Adobe After Effects. Wurde eine solche Szene mit einer höheren Bildrate gefilmt und später auf 24 fps reduziert oder gibt es andere Techniken um ein solches Tracking hinzubekommen?


ich hoffe ich konnte alles verständlich erklären.
Sorry für die langen Fragen :) Dankeschön im voraus.

*Topic verschoben*

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Marcus Gräfe« (4. Januar 2019, 22:46)


Tiger

Registrierter Benutzer

Beiträge: 372

Dabei seit: 7. August 2016

Hilfreich-Bewertungen: 85

  • Private Nachricht senden

2

Sonntag, 6. Januar 2019, 13:26

Ich denke, auf deine Fragen gibt es keine eindeutige Antwort, viele Wege führen zum Ziel. Motion Blur kann man entweder mit der Kamera aufnehmen oder später hinzufügen, z.B. per optical flow. Wenn etwas so arg nicht passt, daß es störend aussieht, wird es passend gemacht. Eine Szene in Zeitlupe wird vom Zuschauer ganz anders wahrgenommen als Echtzeit, da wir so etwas in der Realität nicht erleben können. Ich glaube nicht, daß hier etwas mehr oder weniger Motion Blur im Vergleich zum Rest vom Film eine große Rolle spielt.

Zum Tracking: Das wir bei Hollywood Produktionen eher selten mit After Effects gemacht ;) Oft kommen für solche Szenen gezielt gesetzte Tracking Marker oder entsprechende Strampelanzüge für die Schauspieler (z.B. für den Iron Man Anzug) sowie zusätzliche Tracking Kameras zum Einsatz, damit lässt sich die Bewegung problemlos im 3D Raum rekonstruieren. Auch 3D Motion Tracking ohne Marker ist möglich, wenn sich Schauspieler und Hintergrund ausreichend unterscheiden. Tracking Kameras laufen mit deutlich höheren Frameraten (z.B. 360fps) als die eigentliche Filmkamera.

Oft ist es aber viel langweiliger als man denkt und statt Tracking wird viel Handarbeit gemacht. Nicht ohne Grund findet man im Abspann von CGI lastigen Filmen üblicherweise ein riesen Rudel Roto Artists. Wenn man viel Budget und Manpower hat, ist das unterm Strich oft zielführender als einen Prozess zu automatisieren.

Es hat bereits 1 registrierter Benutzer diesen Beitrag als hilfreich eingestuft.

Benutzer, die diesen Beitrag hilfreich fanden:

redgalaxy

redgalaxy

Registrierter Benutzer

  • »redgalaxy« ist der Autor dieses Themas

Beiträge: 2

Dabei seit: 4. Januar 2019

  • Private Nachricht senden

3

Sonntag, 6. Januar 2019, 14:49

Dankeschön für die Antwort :)

Marcus Gräfe

Administrator

  • »Marcus Gräfe« ist männlich

Beiträge: 5 174

Dabei seit: 14. August 2002

Wohnort: Düsseldorf

Hilfreich-Bewertungen: 361

  • Private Nachricht senden

4

Sonntag, 6. Januar 2019, 20:16

Das wir bei Hollywood Produktionen eher selten mit After Effects gemacht

Aber vmtl. mit ähnlicher, nur viel teurerer Software.

Nicht ohne Grund findet man im Abspann von CGI lastigen Filmen üblicherweise ein riesen Rudel Roto Artists

Ich glaube, die sind im Speziellen unter "Match movers" oder "Match moving (artist)" aufgelistet.

Es hat bereits 1 registrierter Benutzer diesen Beitrag als hilfreich eingestuft.

Benutzer, die diesen Beitrag hilfreich fanden:

redgalaxy

Tiger

Registrierter Benutzer

Beiträge: 372

Dabei seit: 7. August 2016

Hilfreich-Bewertungen: 85

  • Private Nachricht senden

5

Montag, 7. Januar 2019, 18:11

Die Workflows sind häufig doch sehr unterschiedlich zu denen in AE. Vom Set existiert oft ein komplettes 3D Modell, durch einen LIDAR Scan erstellt. Für das Tracking kommen neben der Hauptkamera zusätzliche Referenzkameras zum Einsatz oder komplettes 3D on-Set Mocap. Die weitere Bearbeitung findet dann komplett in 3D statt, AE kann dagegen nur eine Kameraperspektive d.h. nur eine 2D Quelle tracken. Bei der Software kommen alte Bekannte wie Maya, Houdini oder Nuke zum Einsatz, oft aber erweitert um eigene Programme der FX-Studios. Ich kenne z.B. einige Pipelines von WETA, da ist viel Custom Software mit drin.

Zu den Leuten im Abspann: Bei den Match Movern würde ich vermuten, daß das die sind, die softwaregestütztes 3D Tracking betreiben, die Roto Artists klicken manuell in den Pixeln rum. Die Übergänge sind aber sicher fließend, beim Roto kann man auch mit Tracking nachhelfen und Tracks werden manuell korrigiert. Beeindruckend finde ich, egal wie sie heissen, die Menge der Leute, die bei großen Filmen für solche Aufgaben mit anpackt. Man stellt sich das immer so hochtechnisiert vor, vieles wird aber schlicht mit viel Zeit und Manpower erschlagen. Bei Chappie z.B. wurde wohl gar kein Mocap eingesetzt, es gab auch keine LIDAR Scans. Es gab nur einen Schauspieler mit Tracking Anzug und eine Kameraperspektive als Quelle. Chappie wurde dann mehr oder weniger manuell mit dem Schauspieler im Bild als Referenz animiert.

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Tiger« (7. Januar 2019, 18:20)


Es hat bereits 1 registrierter Benutzer diesen Beitrag als hilfreich eingestuft.

Benutzer, die diesen Beitrag hilfreich fanden:

redgalaxy

JoeFX

Registrierter Benutzer

  • »JoeFX« ist männlich

Beiträge: 544

Dabei seit: 9. Oktober 2007

Wohnort: OÖ, Österreich

Hilfreich-Bewertungen: 11

  • Private Nachricht senden

6

Dienstag, 8. Januar 2019, 09:41

Also bezüglich Slow-Motion kann ich nur sagen, dass eine längere Belichtungszeit als die Frame-Länge nicht möglich ist. Die Verschlusszeit-Regel ist also bei Slow-Motion Footage also genauso korrekt wie bei Realtime-Material. Bei Motion Blur handelt es sich um die gesamte Bewegung innerhalb der Bewegungsphase. Also bei einem Shutter von 1/48 (180° bei 24fps) wird die gesamte Bewegung einer 1/48 Sekunde festgehalten, der verwischt es. Bei einer Slow-Motion Sequenz mit 100fps haben wir einen Shutter von 1/200, also die Bewegungsphase von 1/200 Sekunde. Das bedeutet, dass gar nicht mehr reingepackt werden kann. Und da die Bewegung entsprechend langsamer ist, wenn es auf 24fps ausgebreitet wird, ist auch der Motion Blur für unsere Sehgewohnheiten auch korrekt.

Um es anders auszudrücken: Würdest du dich 4x langsamer bewegen als in Echtzeit, bekämst du auch 4x weniger Motion Blur. Im Nachhinein Motion Blur hinzuzufügen würde dem Effekt also eher schaden, da die Verwischungen stärker würden als gewohnt.
Daher ist 1/200 bei 100fps genauso richtig wie 1/48 bei 24fps.

Es hat bereits 1 registrierter Benutzer diesen Beitrag als hilfreich eingestuft.

Benutzer, die diesen Beitrag hilfreich fanden:

z3r0_88

wabu

lernt noch

  • »wabu« ist männlich

Beiträge: 934

Dabei seit: 12. Mai 2012

Wohnort: Pinneberg

Hilfreich-Bewertungen: 157

  • Private Nachricht senden

7

Mittwoch, 9. Januar 2019, 11:30

"Daher ist 1/200 bei 100fps genauso richtig wie 1/48 bei 24fps. "

Abzuraten ist aber: Immer SloMo aufnehmen und dann nicht nutzen.

Denn dann wird jedes 4. Frame genommen, es fehlt die "Verwischung" weil 1/200

JoeFX

Registrierter Benutzer

  • »JoeFX« ist männlich

Beiträge: 544

Dabei seit: 9. Oktober 2007

Wohnort: OÖ, Österreich

Hilfreich-Bewertungen: 11

  • Private Nachricht senden

8

Mittwoch, 9. Januar 2019, 13:55

@wabu
Absolut korrekt. In dem Fall müsste man das fehlende Motion Blur hinzurechnen, da die Bewegungsdauer in den Frames zu kurz ist.

Ich persönlich finde aber 1/100 bei 25p noch verschmerzbar. Alles was kürzer ist, wird dann schon ziemlich unruhig.

Marcus Gräfe

Administrator

  • »Marcus Gräfe« ist männlich

Beiträge: 5 174

Dabei seit: 14. August 2002

Wohnort: Düsseldorf

Hilfreich-Bewertungen: 361

  • Private Nachricht senden

9

Samstag, 12. Januar 2019, 14:37

AE kann dagegen nur eine Kameraperspektive d.h. nur eine 2D Quelle tracken

Aber AE kann doch mittlerweile (und schon länger) auch echtes 3D-Tracking. Oder meinen wir unterschiedliche Sachen? Ich will die Qualität des AE-Kameratrackers nicht mit "Hollywood-"Lösungen vergleichen, aber existent ist er schon.

Tiger

Registrierter Benutzer

Beiträge: 372

Dabei seit: 7. August 2016

Hilfreich-Bewertungen: 85

  • Private Nachricht senden

10

Samstag, 12. Januar 2019, 16:31

AE kann aus einer 2D Quelle die 3D Kamerabewegung herausrechnen und eine Point Cloud erzeugen. Das Ergebnis ist 3D, man kann den Tracker aber nicht mit 3D bzw. mehreren 2D Perspektiven füttern. Daher funktioniert das auch nur für statische Objekte (abgesehen von der Kamera), die 3D Position eines sich bewegenden Körperteils z.B. kann man damit nicht bestimmen.

Um echte 3D Positionen von bewegten Objekten zu erfassen, benötigt man zusätzliche Referenzkameras. Mit mehreren Kameraperpektiven lässt sich über Triangulation für jeden Punkt die tatsächliche 3D Position bestimmen. Die hierfür nötigen Funktionen gibt es in AE nicht. Wer den Workflow mal ausprobieren will, kann das aber mit Blender machen, dafür gibt es ein recht rudimentäres Plugin, das aus mehreren 2D Tracks ein 3D Tracking berechnen kann:

https://blenderartists.org/t/addon-mocap…-cameras/635499

Eine professionelle Mocap/Tracking Lösung kann natürlich einiges mehr als das Plugin und kann viele Arbeitsschritte automatisieren, aber die grundsätzliche Funktionsweise ist die gleiche.

Ein schönes Beispiel, was man mit so einer Technik anstellen kann, ist das Video zu "Wide Open" von den Chemical Brothers, getrackt und gebastelt von The Mill:


Marcus Gräfe

Administrator

  • »Marcus Gräfe« ist männlich

Beiträge: 5 174

Dabei seit: 14. August 2002

Wohnort: Düsseldorf

Hilfreich-Bewertungen: 361

  • Private Nachricht senden

11

Samstag, 12. Januar 2019, 16:36

die 3D Position eines sich bewegenden Körperteils z.B. kann man damit nicht bestimmen

Ja, gut, das ist klar. AE hat eben einen 3D-Kameratracker, also nur für die Kamera, nicht für Objekte. ;)

Tiger

Registrierter Benutzer

Beiträge: 372

Dabei seit: 7. August 2016

Hilfreich-Bewertungen: 85

  • Private Nachricht senden

12

Samstag, 12. Januar 2019, 16:56

AE hat eben einen 3D-Kameratracker

Genau, das ist der Marketing-Titel für dies Produktgattung. Genaugenommen ist es ein 2D Tracker mit nachgelagerter 3D Interpolation. Die einzelnen Tracks selbst sind logischerweise nur zweidimensional, mehr Information filmen wir ja normalerweise nicht, der Rest ist Mathematik. Dafür ist es umso beeindruckender, daß man aus einer popligen Bilder-Sequenz von nur einer Kamera sehr genau die Kameraposition im 3D Raum herausrechnen kann.

Social Bookmarks