Vielen Dank für die Antwort! Ich habe es jetzt mal mit 1/100 s ausprobiert (und zum Vergleich noch mit 1/80 s und 1/200 s). Bei allen Einstellungen sind die Schlieren dennoch da. Erkenne auch keine Besserung, also, dass es irgendwie schwacher werden würde, je geringer die Belichtungszeit wird. Es scheint also eventuell nicht an der Belichtungszeit zu liegen. Ich erkenne aber gleichzeitig auch nicht, dass bei einer kürzeren Belichtungszeit meine Bewegungen stärker ruckeln würden. Kann das sein oder ist der Unterschied zwischen den Belichtungszeiten einfach immer noch zu gering, um das zu merken?Für mich stellt sich das so da:Während der Belichtung 1/50 bewegt sich der Kopf, da ensteht eine Bewegungsunschärfe die jaoft so gewollt ist. In diesem Fall aber ensteht ein undefinierter Bereich mit mehr oder weniger Grün. Ich würde hier mal ein Test mit der 1/100 sec machen.
a: ist diese Schliere weg
b: ruckelt die Bewegung
Hier mal zwei Ausschnitte aus den Video-Tests ohne nachträgliche Licht- und Farbbearbeitung mit 1/50 und 1/100 (1/200 kann ich auch gerne noch posten, sieht aber auch nicht anders aus):Poste doch mal einen Schnipsel aus dem unbearbeiteten Video, einmal mit 1/50 und einmal mit 1/200 Verschlusszeit.
Hier mal zwei Ausschnitte aus den Video-Tests ohne nachträgliche Licht- und Farbbearbeitung
Wieso, du weißt ja nicht, wie der Hintergrund ohne Greenscreen wäre?Wenn der Hintergrund so bleiben soll, macht es absolut keinen Sinn dafür einen Greenscreen zu benutzen
Mehr Licht, kürzere Belichtungszeit, mehr Abstand, Kamera mit 4:2:2 und ggf Beleuchtung mit Komplimentärkontrastfarbe dürften zu Besserung führen. Greenscreen wirklich GUT hinzubekommen ist meiner Meinung nach mit Amateurmitteln kaum möglich. Das Ergebnis sieht dann meist so aus wie in diesen Beispielen. Das grau auf der Unterseite der Ärmel an den Ellenbogen zB würde mich stören. Das dürfte von Reflexionen des grüns im Stoff kommen.
Hier mal zwei Ausschnitte aus den Video-Tests ohne nachträgliche Licht- und Farbbearbeitung
Sorry, mit "unbearbeitet" meinte ich vor dem Keying. Da sieht man dann eher, ob das wirklich ein Montion Blur Problem ist oder was anderes. Man sieht in den beiden Clips schon mal Spilling Artefakte. Je nach Kamera und Codec kommen gerne noch Probleme durch Kompression und Chroma Subsampling dazu, die das Thema nicht einfacher machen.
Hier mal dieselben Test-Videos von oben ohne Keying:Hier mal zwei Ausschnitte aus den Video-Tests ohne nachträgliche Licht- und Farbbearbeitung
Sorry, mit "unbearbeitet" meinte ich vor dem Keying. Da sieht man dann eher, ob das wirklich ein Montion Blur Problem ist oder was anderes. Man sieht in den beiden Clips schon mal Spilling Artefakte. Je nach Kamera und Codec kommen gerne noch Probleme durch Kompression und Chroma Subsampling dazu, die das Thema nicht einfacher machen.
Benutzer, die diesen Beitrag hilfreich fanden:
Die Kamera ist eine Canon EOS M50 und der Video-Codec ist tatsächlich MPEG-4 H.264. Die Schlieren werden auch erst beim exportierten Video sichtbar, nicht im Player des Videobearbeitungsprogramms.Das sieht besser als als erwartet. Arg viel motion blur ist nicht zu sehen. Das ist entgegen der ersten Vermutung hier nicht das Problem, daher hilft die Verschlusszeit auch nichts. Ist jetzt schwierig zu beurteilen, wievel Youtube hier noch kaputt macht, aber man sieht, daß die Kante von der Person zum Greenscreen nicht sauber ist. Die Pixel sind leicht verwaschen und es gibt zwischendurch wie einen leichten "Halo" um die Person. Damit wären wir dann doch wieder bei den Themen Kompression und/oder Chroma Subsampling. Letzteres ist das gleiche wie das bereits von joey23 angesprochene Thema 4:2:2. Oft werden weniger Farb- als Helligkeitsinformationen gespeichert, da das Auge dafür weniger empfindlich ist und man so Platz sparen kann. Es werden einfach mehrere Pixel zu einer Farbe zusammengefasst. Der Idealfall ist ein Subsampling von 4:4:4 d.h. die Farbinformation wird pro Pixel vollständig gespeichert. Bei 4:2:2 werden horizontal 2 Pixel zusammengefasst, bei 4:2:0 (standard bei interner Aufzeichnung von DSLR oder Mirrorless Kameras) wird nur 1 Farbwert pro 4 Helligkeitspixeln gespeichert. Wenn dann noch eine hohe Kompression dazu kommt (H.264 z.B.) wird weitere Information verworfen, es werden "Blöcke" gebildet und es entstehen solche Artefakte.
Mit einem guten Keyer bzw. nachgelagerten Filtern kann man das etwas ausgleichen, in dem man die Kante der erzeugte Alpha Maske ewas "härter" macht und minimal verkleinert. Dann wird u.u. das Objekt vor dem Greenscreen minimal "angeknabbert", das sieht aber besser als als diese schwammigen Ränder. Dazu hilft es, im Bereich der Kante Grün stärker zu unterdrücken, dann wäre auch das Spilling am Rand weg. Damit wären wir dann wieder bei z.B. Fusion oder Nuke, wo entsprechende Tools zur Verfügung stehen. Noch besser ist es natürlich, ein möglichst perfektes Ausgangsmaterial zu haben, daß man später nicht zaubern muss.
Was für eine Kamera und was für ein Codec ist denn im Einsatz?
Lustig ist übrigens das Grau auf der Unterseite der Ärnel. Das sieht klassisch nach einem Keying Fehler aus, die Ärmel erscheinen aber wirklich leicht grau durch den Lichteinfall, auch ganz ohne Keyer
Stimmt. Aber ich weiß, dass es genauso viel Arbeit wäre statt des grünen Hintergrundes einen grauen Hintergrund aufzuhängen. Und dann könntest du dir den ganzen Keying-Krams sparen. Also wenn das grau tatsächlich dein Ziel ist, ist das mit dem Greenscreen BlödsinnWieso, du weißt ja nicht, wie der Hintergrund ohne Greenscreen wäre?
Die Kamera ist eine Canon EOS M50 und der Video-Codec ist tatsächlich MPEG-4 H.264. Die Schlieren werden auch erst beim exportierten Video sichtbar, nicht im Player des Videobearbeitungsprogramms.
Was ich jetzt noch nicht ganz verstanden habe, ist, warum diese Schlieren bzw. Artefakte ausgerechnet bei Bewegungen auftreten (das ist aber nur für meine eigene Neugierde und weil mich das einfach interessiert).
Vielen Dank für die sehr gute Erklärung! Ja, ich gehe auch stark davon aus, dass es an der Kompression beim Rendern liegt. Im Player des Videobearbeitungsprogramms sind keine Schlieren zu sehen. Ich habe testweise auch nochmal das Video unkomprimiert exportiert - keine Schlieren. Das Problem ist also identifiziert. Vielen Dank dafür!Die Kamera ist eine Canon EOS M50 und der Video-Codec ist tatsächlich MPEG-4 H.264. Die Schlieren werden auch erst beim exportierten Video sichtbar, nicht im Player des Videobearbeitungsprogramms.
Die M50 nimmt mit 8 Bit 4:2:0 auf, das ist auf jeden Fall ein limitierender Faktor bei Greenscreen. Leider kann die Kamera auch kein gescheites HDMI Signal ausgeben d.h. ein externer HDMI Recorder hilft auch nicht weiter. Mit entsprechendem Nachbearbeitungsaufwand sollte trotzdem ein zumindest brauchbares Ergebnis möglich sein. Ein Trick ist noch in 4K aufnehmen und im Schnittprogramm auf 1080p runterskalieren. 4:2:0 in 4K ergibt nach dem Skalieren auf 1080 theoretisch ein 4:4:4 subsampling, da jetzt für jedes Pixel eine Chroma Information vorhanden ist. Leider ist das Ergebnis von Schnittprogramm zu Schnittprogramm unterschiedlich, je nach dem wie intern gerechnet wird.
Was mich stutzig macht ist, daß das im Player vom Schnittprogramm besser aussieht. Das würde bedeuten, nicht die Kompression der Kamera ist das Problem sondern die Kompression beim Rendern. Kann die Software auch weniger komprimierte Codecs wie Prores oder DNxHD? Wenn das Schnittprogramm das Problem ist, sollte es damit deutlich besser aussehen.
Was ich jetzt noch nicht ganz verstanden habe, ist, warum diese Schlieren bzw. Artefakte ausgerechnet bei Bewegungen auftreten (das ist aber nur für meine eigene Neugierde und weil mich das einfach interessiert).
H.264 speichert nicht jeden Frame vollständig. Es gibt Keyframes, die komplett gespeichert werden, die folgenden Frames enthalten nur Informationen über Abweichungen zum letzten Keyframe. Je größer die Abweichungen sind (d.h. mehr Bewegung im Bild) desto mehr Informationen müssen gespeichert werden. Da die mögliche Datenmenge begrenzt ist, muss bei mehr Bewegung mehr komprimiert d.h. Pixel zusammengefasst werden, dadurch leidet die Qualität. Abhilfe schaffen "all-intra" Codecs wie das erwähnte Prores, wo jeder Frame vollständig gespeichert und als Einzelbild komprimiert wird. Die Datenmenge ist dann allerdings deutlich höher. Von nichts kommt nichts