Du bist nicht angemeldet.

Lieber Besucher, herzlich willkommen bei: Amateurfilm-Forum. Falls dies dein erster Besuch auf dieser Seite ist, lies bitte die Hilfe durch. Dort wird dir die Bedienung dieser Seite näher erläutert. Darüber hinaus solltest du dich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutze das Registrierungsformular, um dich zu registrieren oder informiere dich ausführlich über den Registrierungsvorgang. Falls du dich bereits zu einem früheren Zeitpunkt registriert hast, kannst du dich hier anmelden.

josaur

Registrierter Benutzer

  • »josaur« ist der Autor dieses Themas

Beiträge: 6

Dabei seit: 21. März 2016

  • Private Nachricht senden

1

Montag, 21. März 2016, 15:04

2d gegen 3d compositing

Ich habe demnächst ein größeres Hobbyfilmprojekt zu stemmen. Viele Szenen werden aus finanziellen und praktischen Gründen vor einem Greenscreen stattfinden. Es gibt Szenen mit bewegter Kamera, die mit hilfe von Markern getrackt wird. Soweit so gut. Nur Stelle ich mir zur Zeit immer wieder die Frage wo ein richtiges 3d compositing in Blender nötig ist und wo ein einfaches Matte painting reicht, dass auf etwas Geometrie projeziert wird. Zusätzlich gibt es in Blender ja noch die Möglichkeit des bakings, dass theoretisch eine Menge Renderzeit sparen kann. Meine Frage ist also, mit welchen mitteln komme ich am effektivsten voran, nicht nur im Bezug auf Arbeitszeit, sondern auch auf renderzeit ?

Viele Grüße josaur

LennO

Registrierter Benutzer

Beiträge: 355

Dabei seit: 3. Juni 2015

Hilfreich-Bewertungen: 117

  • Private Nachricht senden

2

Montag, 21. März 2016, 16:30

Soweit so gut. Nur Stelle ich mir zur Zeit immer wieder die Frage wo ein richtiges 3d compositing in Blender nötig ist und wo ein einfaches Matte painting reicht, dass auf etwas Geometrie projeziert wird. Zusätzlich gibt es in Blender ja noch die Möglichkeit des bakings, dass theoretisch eine Menge Renderzeit sparen kann. Meine Frage ist also, mit welchen mitteln komme ich am effektivsten voran, nicht nur im Bezug auf Arbeitszeit, sondern auch auf renderzeit ?


Nun…natürlich geht ein 2,5D Compositing immer schneller – aber ehrlich gesagt hängt das absolut vom Shot ab und dann wäre ein wenig mehr Beschreibung um was es geht von Nöten. ich bin grad auch gerade etwas im Stress, könnte dir aber heute Abend ausführlicher Antworten wenn du ein paar Informationen hast. 3D und Comp Software wären… ?

josaur

Registrierter Benutzer

  • »josaur« ist der Autor dieses Themas

Beiträge: 6

Dabei seit: 21. März 2016

  • Private Nachricht senden

3

Montag, 21. März 2016, 18:37

Danke erstmal für die Antwort, ich habe die Situation in der Tat etwas spärlich beschrieben.

Es handelt sich hierbei um eine historische Kulisse, die ich in Blender bereits teilweise modeliert habe. Ein Palast aus der Antike. Teilweise habe ich noch vor animierte Charaktere als Statisten einzusetzen, was dann aber ein vollständiges 3d rendering erfordern würde. Es wird nur in sehr wenigen Szenen mit der "Kulisse" interagiert (an eine Tür klopfen) ansonsten dient sie ausschließlich als Hintergrund. Die Programme die ich dafür verwenden würde sind Blender für den 3d Kram und compositing wenn es 3d Szenen sind, Fusion fürs compositing, wenn es 2d oder 2,5d Szenen sind, Photoshop fürs Matte Painting und Davinci Resolve für den Schnitt.

Grüße josaur

LennO

Registrierter Benutzer

Beiträge: 355

Dabei seit: 3. Juni 2015

Hilfreich-Bewertungen: 117

  • Private Nachricht senden

4

Montag, 21. März 2016, 19:00

Dann würde ich folgendes vorschlagen: Was deine generelle Hintergrundkulisse angeht, würde ich diese in Blender vernünftig UV-Unwrappen, schön leuchten und dann tatsächlich die komplette Textur incl Lighting baken. Das Modell (samt deiner Shot Cameras) dann in Fusion importieren und die gebakte textur als Constant Shader verwenden. So hast du deinen Hintergrund direkt in der Compositing-Umgebung und hast es weitaus einfacher, ihn an den Vordergrund anzupassen, hast aber dennoch eine vollständige 3D-Umgebung zur Verfügung. Ich würde dir da eher Fusion oder auch die Nuke non-commercial fürs 3d Compositing empfehlen gegenüber Blender. Beide haben extrem ausgereifte 3d Compositing Umgebungen. Rendern tut das dann in Fusion/Nuke extrem fix. Setzt natürlich vorraus das nichts einen bewegten Schatten auf deine Kulisse wirft, oder sich das Licht in der Szene verändert (klarer harter Wolkenschatten oder ähnliches). Falls deine 3d Charaktere Schatten auf die Umgebung werfen, kann es dennoch u.U. einfacher sein, nur den Schatten-Pass auf dem Boden für diese auszugeben, als das komplette Shot und deren Schattenwurf auf den BG zu rendern. Grundsätzlich würde ich versuchen was auch immer geht in die Comp auszulagern, als in 3d, da du immer flexibler bist. Wenn du 3d Modelle von allem wichtigen hast, so würde ich es vorziehen in der Comp Umgebung mit diesen zu arbeiten, anstatt nur mit Cards, und wie gesagt entsprechende Texturemaps baken. Für alles weitere dann 2,5 D Cards falls sinnig. Wenn wenig Parallaxe im Shot ist, kannste du natürlich auch deine komplette Hintergrundkulisse nur als BG-Card rendern und damit arbeiten. Was die Interaktions-Shots angeht, so würde ich auch schauen, wie du dir das intelligent aufdröseln kannst, und nur die entsprechend sinnvolle Passes in 3d rendern und den rest 3d in der Comp lösen. (Schattenwurf Hand etc). Ansonsten natürlich sobald die Interaktion mit der Tür komplexer sein muss und Bewegung im Spiel ist, eher doch in 3d Software bleiben.

josaur

Registrierter Benutzer

  • »josaur« ist der Autor dieses Themas

Beiträge: 6

Dabei seit: 21. März 2016

  • Private Nachricht senden

5

Montag, 21. März 2016, 20:11

Beim Baken dann die kommpletten gebakten Texturen inklusive der Geometrie auf die projeziert wird aus Blender exportieren? Was wären da deiner Meinung nach die besten Formate um Geomtrie inklusive UV maps um den Austausch zwischen Blender und Fusion möglichst ohne komplikationen zu realisieren? Hat es irgendwelche Vorteile nur den Shadow-Pass der Szene zu verändern wenn sie sich verändert, außer dass es vielleicht etwas Renderzeit erspart, denn die 3D-Charaktere müssen sowieso komplett gerendert werden... Mir ist nicht ganz klar was ein BG bzw. eine BG-Card ist, weil ich diese Abkürzung nicht kenne. Bei den interaktions-Shots haben wir zwei Layer als Footage, einmal die Person vor der Tür und einmal die dahinter, wenn sie sich öffenet. Da die Tür animiert ist kommt man sowieso nicht darum sie komplett zu rendern. Mir geht es nicht darum die letzte Sekunde beim rendern einzusparen, sondern mehr darum jetzt nicht total inneffizient zu arbeiten und eine Szene stundenlang zu rendern, wenn es auch mit kleinem Aufwand in der hälfte der Zeit gegangen wäre, mit eventuell sogar besserem Ergebniss.

LennO

Registrierter Benutzer

Beiträge: 355

Dabei seit: 3. Juni 2015

Hilfreich-Bewertungen: 117

  • Private Nachricht senden

6

Montag, 21. März 2016, 20:20

Beim Baken dann die kommpletten gebakten Texturen inklusive der Geometrie auf die projeziert wird aus Blender exportieren? Was wären da deiner Meinung nach die besten Formate um Geomtrie inklusive UV maps um den Austausch zwischen Blender und Fusion möglichst ohne komplikationen zu realisieren?


Genau. Geeignete Formate sind FBX, OBJ, Alembic. Bei Fusion müsst ich jetzt nachschauen was es alles läd, Nuke die alle auf jedenfall. Dann zusätzlich halt noch eine getrackte Kamera aus Blender (oder direkt aus dem Tracking Programm falls du fürs Tracking was anderes benutzt.)


Hat es irgendwelche Vorteile nur den Shadow-Pass der Szene zu verändern wenn sie sich verändert, außer dass es vielleicht etwas Renderzeit erspart, denn die 3D-Charaktere müssen sowieso komplett gerendert werden...


Jein…wenn sich am Boden was ändert, dann wird es fixer gehen nur den Schattenpass neu zu rendern, anstelle aller Chars. Sollte sich bei den Chars was ändern, muss ja eh neu gerendert werden, und dann auch alles.


Mir ist nicht ganz klar was ein BG bzw. eine BG-Card ist, weil ich diese Abkürzung nicht kenne.


Eine BG-Card (Background-Card) ist einfach nur eine Ebene, die im Raum steht. Beispielsweise halt dein gerenderter Hintergrund als Standbild. Diese "Karte" wird halt im 3D-Compositing irgendwo in den Raum gelegt wo sie passt was ihre Distanz und Größe angeht, die Kamera ist dabei deine getrackte Kamera. Beispielsweise wann immer die Kamera entweder nur ein "Nodal-Pan" ist, wobei es sich da oft anbietet die Backplate (dein Hintergrundbild – in dem Falle eine Rendering des Gebäudes) auf einen Zylinder zu mappen, oder die Parallaxe halt so gering ist dass man im Hintergrund sich nichts gegeneinander verschieben sieht. Alternativ halt dann mehere Cards, wenn man ne Teifenstaffelung braucht, sich aber in den einzelnen"Tiefen-Ebene" perspektiv-technisch nichts tut. Wann immer du nur ne BG Plate Card benutzt, ist es meist alternativ auch möglich einfach nur im Shot einen Punkt zu tracken, und eine 2D-Fläche anzuhängen, oder aber das Shot zu stabilisieren, das nennt man dann "Locked Plate", da dein Vordergrund fixiert wird, du deinen Hintergrund hineinbaust, und dann wiederum auf das fertige Ergebnis die invertierte Stabilisierung wieder drauflegst (wenn gewünscht, um die ursprüngliche Kamerabewegung wieder zu bekommen).

josaur

Registrierter Benutzer

  • »josaur« ist der Autor dieses Themas

Beiträge: 6

Dabei seit: 21. März 2016

  • Private Nachricht senden

7

Montag, 21. März 2016, 20:53

Fusion kann auf jeden Fall schon mal FBX und Alembic. Sollte also ohne Probleme gehen, da Blender FBX kann. Beim Tracking würde ich schon Blender nehmen, es sollte aber auch kein größeres Problem sein einen anderen zu nehmen, falls Blender da versagen sollte.

Würdest du wenn man sowieso eine Szene komplett rendern muss, das ganze nochmal in ein Compositing Programm rein klatschen um Feinabstimmungen damit zu machen oder direkt in Resolve zu abschließendem Grading? Gibt es irgendeinen Grund, dass die ganzen Passes oft alle einzeln gerendert werden und dann später im Compositor kombiniert werden, als gleich beim render?

Danke die Info dass das einfach ne Plane im Raum mit Textur ist hat mir gefehlt. Dann ist alles klar :D

LennO

Registrierter Benutzer

Beiträge: 355

Dabei seit: 3. Juni 2015

Hilfreich-Bewertungen: 117

  • Private Nachricht senden

8

Montag, 21. März 2016, 21:18


Würdest du wenn man sowieso eine Szene komplett rendern muss, das ganze nochmal in ein Compositing Programm rein klatschen um Feinabstimmungen damit zu machen oder direkt in Resolve zu abschließendem Grading? Gibt es irgendeinen Grund, dass die ganzen Passes oft alle einzeln gerendert werden und dann später im Compositor kombiniert werden, als gleich beim render?


Oh ja, auf jedenfall in Compositing. Das funktioniert never ausm Renderer. Abgesehen davon das Feinjustierungen im Renderer nicht nur Zeitaufwendig sind, bestimmte Dinge sind einfach völlig unmöglich. Selbst wenn du keine Kontraste oder grobe Farbliche Unterschiede anpassen musst, deine Footage hat hunderte Artefakte, die du aus einem Renderer so nicht rausbekommst: Chromatische Abberationen der Linse, Weichzeichnungen, Krümmung der Optik, Film Korn bzw Digitales Rauschen, und im Endeffekt musst du das ganze Keying ja sowieso in der Comp Software machen, u.v.m. Ich hab noch an keiner Show ein Shot gehabt das jemals as-is ausm Renderer hätte genommen werden können ;) Das ist auch irgendwie einfach nicht elegant, da du einfach viel zu lange für klein Änderungen warten musst, die dich in der Comp zwei Nodes und 3 Klicks kosten.

Die einzelnen Passes sind dabei auch mehr als nützlich: Beispielsweise kann es gut sein, dass du beim compositen feststellst das etwas zu sehr spiegelt, auch wenn das vorher im Renderer ganz ok war, passt es nicht zum Shot – Reflection Layer korrigieren, gegenüber neu rendern ;) Aber auch einzelnen Objektmasken (ID's) etc sind sinnvoll um einzelnen Elemente gezielt korrigieren zu können, Ambient Occlusion seperat zu haben auch nicht verkehrt. Schlussendlich muss man pro Shot entscheiden wieviele Passes benötigt werden, und in jüngerer Zeit geht man schon dazu über weniger Passes zu rendern oder tatsächlich zu benützen da Renderer einfach mitlerweile auch schon nen besseren Job machen – allerdings wenn dein Renderer es eh erlaubt ohne Overhead die Passes einzeln in eine OpenEXR zu schreiben – auf jedenfall benutzen. Deinen Beauty haste ja zumeist trotzdem noch direkt in der Datei mitgespeichert.

Und selbst eine Full-CG Szene hat es zumeist nötig durchs Compositing zu wandern. Ein perfektes Ergebnis ausm Renderer ist nicht nur einfach schlicht unmöglich, es ist auch ein unnütz sinnloser Workflow. Zumal du oft nicht deine komplette Szene in einem renderst, sondern sicherlich oft auch mal nach Objekten ausgesplittet seperat renderst.

josaur

Registrierter Benutzer

  • »josaur« ist der Autor dieses Themas

Beiträge: 6

Dabei seit: 21. März 2016

  • Private Nachricht senden

9

Dienstag, 22. März 2016, 15:43

Danke macht schon Sinn des mit den Passes. Ich hab jetzt mal aus Blender die einzelnen Passes in eine EXR geschrieben, ging ohne Probleme und hat auch nicht mehr Renderzeit in Anspruch genommen. Was ist die übliche Vorhergehensweise, welche Passes man rendert? Einfach alle? Das braucht zwar etwas mehr Speicherplatz, aber immerhin hat man dann alle Möglichkeiten in der Nachbearbeitung offen.

LennO

Registrierter Benutzer

Beiträge: 355

Dabei seit: 3. Juni 2015

Hilfreich-Bewertungen: 117

  • Private Nachricht senden

10

Dienstag, 22. März 2016, 19:01

Was ist die übliche Vorhergehensweise, welche Passes man rendert? Einfach alle? Das braucht zwar etwas mehr Speicherplatz, aber immerhin hat man dann alle Möglichkeiten in der Nachbearbeitung offen.


Ausser Plattenplatz gäbe es eigentlich keinen Grund auf was zu verzichten, allerdings kann das ganze schon unübersichtlich werden wenn man wirklich alles benützt was einem der renderer bietet. ich weiss nicht was blender/cycles alles anbietet, aber die normale Liste an AOVs/Passes der meisten Renderer ist recht lange. Grundsätzlich heisst es hier einfach: Was du meinst, später zu brauchen für ein Shot. Das Minimum was dir den Beauty zusammensetzen würde aus passes wäre: Diffuse(entweder Diffuse Color Flat oder inkl Shading), Lighting/Irradiance(falls Diffuse Color in flat), Specular, Reflection, Refraction, Shadow, dann dazu falls benutzt Indirect (Global Illumnation) und oder AO. Was zusätzlich eigentlich überhaupt nie verkehrt ist ist die Z-Depth, was je nach Scene Sinn macht sind Object-ID's als Passes. Falls du mal Motion-Blur in der Post machen wirst für ein Shot, dazu noch nen Motion-Vector-Pass, und je nachdem was dir noch für Spässe in Sachen Re-Shading in der Post einfallen würde, bräuchte man dann Normals und UV Passes. Sinnvoll kann es auch sein, falls möglich, einzelne Lichter als einzelne Passes auszugeben falls man sie getrennt in der Post noch farblich verändern will oder den Falloff nochmal steuern. Auf jedenfall bei allem was du tust Linear arbeiten (da du eh schon EXR raussschreibst gehe ich davon aus dass du das eh tust).

Wie du die Passes zusammensetzt kannst du nachlesen, oder weisst es schon, andererseits kriegt man das eh raus mit kurz nachdenken da es sowieso nur die Wahl zwischen Add/Multiply/Screen gibt was das Verrechnen angeht ;)

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »LennO« (22. März 2016, 19:08)


josaur

Registrierter Benutzer

  • »josaur« ist der Autor dieses Themas

Beiträge: 6

Dabei seit: 21. März 2016

  • Private Nachricht senden

11

Donnerstag, 24. März 2016, 13:01

Gibt es irgendwas das dagegen spricht bei Rechenintensiven Szenen den Compositor in Blende zu benutzen? Der kann die Passes direkt aus dem Render ziehen und verwerten. Aus dem Grund, weil die meisten shared Renderfarmen exr export aufgrund der Größe dicht unterstützen, bzw. deaktiviert haben. Wie ist das normale Vorgehen, wenn ich einerseits den Compined-Pass habe und den Specular und dann noch etwas Specular hinzufügen will ? Multiply oder Add? Wie man die alle Passes in ein Bild kombiniert, habe ich verstenden, und es funktioniert ohne Probleme. Nur wenn es um einzelne Passes geht, ist mir das noch nicht ganz klar...Weist du, wie man in Blender die Passes einzelner Lichter ausgibt, oder geht das schlicht und einfach nicht?

LennO

Registrierter Benutzer

Beiträge: 355

Dabei seit: 3. Juni 2015

Hilfreich-Bewertungen: 117

  • Private Nachricht senden

12

Freitag, 25. März 2016, 09:52

Gibt es irgendwas das dagegen spricht bei Rechenintensiven Szenen den Compositor in Blende zu benutzen? Der kann die Passes direkt aus dem Render ziehen und verwerten. Wie ist das normale Vorgehen, wenn ich einerseits den Compined-Pass habe und den Specular und dann noch etwas Specular hinzufügen will ? Multiply oder Add?


Nun, eigentlich ist es ja durchaus so, dass wenn man schon Multipassed, dann auch alle Kanäle ausgeben lässt die den Beauty zusammensetzen, und in der Comp dann diese benutzt und den beauty eigentlich garnicht – ausser zum checken ob deine Passes kombiniert auch (eigentlich exakt, ungefähr mit Toleranz je nach renderer…) den Beauty ergeben. Aber natürlich hält einen nichts davon ab, das auch anders zu tun. Allerdings kann man dann eigentlich nur noch additiv arbeiten, und schlecht reduzieren (geht auch, ist aber nur bis zu nem gewissen grad sinnvoll und setzt v.A. vorraus das man in jedem Fall float arbeitet). Was dein Beispiel angeht, willst du die Stärke des Specular nachträglich erhöhen, so kannst du natürlich folgendes Machen: Du hast deinen Spec Pass und multiplizierst den meinetwegen mit 0.2. Diesen addest du dann auf deinen Beauty. Somit hast du eine Spec-Stärke von 1.2 im Vergleich zum eigentlich beauty erhalten.

Hast du alle Kanäle eh seperat, würdest du einfach nur den Spec mit 1.2 multiplizieren.

Was Blenders Compositor angeht: Fusion ist einfach n sinnvollerer Compositor. So schön Blender als OpenSource Tool ja ist, in Sachen Usability hängt es einfach der kommerziellen Konkurrenz immer hinterher. Allerdings spricht nichts dagegen, da einfache Comp Operation ja absolut kein Problem mit Blender darstellen.


Weist du, wie man in Blender die Passes einzelner Lichter ausgibt, oder geht das schlicht und einfach nicht?


Ich bin zwar kein Blender User – aber anscheinend geht das nicht, es sei denn da hätte sich in jüngerer Zeit irgendwas getan. Was dich natürlich nicht davon abhält, gewisse Lichter einfach seperat als Layer zu rendern. Dabei deaktivierst du dann alle bis auf das eine/die jenigen die du für den pass haben willst für den Layer und renderst ihn zusätzlich. Natürlich dauert das länger, als es direkt in einem Rutsch als Pass/Framebuffer in einem Renderdurchgang zu haben, ist aber manchmal durchaus trotzdem sinnvoll. Beispielsweise du hast ein Flugzeug, und renderst dessen Positionslichter seperat als layer. Die kannst du dann drüberadden, evtl deren Falloff noch ändern, und das Blinken in der Post machen, anstelle es direkt fix zu rendern und festzustellen, dass dir die Blink-Frequenz nicht zusagt und du den kompletten, aufwendigeren Beauty, neu-rendern müsstest wenn die Lichter da mit drin waren.

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »LennO« (25. März 2016, 10:13)


Ähnliche Themen

Verwendete Tags

2D, 3D, animation, Blender, compositing

Social Bookmarks