Du bist nicht angemeldet.

Lieber Besucher, herzlich willkommen bei: Amateurfilm-Forum. Falls dies dein erster Besuch auf dieser Seite ist, lies bitte die Hilfe durch. Dort wird dir die Bedienung dieser Seite näher erläutert. Darüber hinaus solltest du dich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutze das Registrierungsformular, um dich zu registrieren oder informiere dich ausführlich über den Registrierungsvorgang. Falls du dich bereits zu einem früheren Zeitpunkt registriert hast, kannst du dich hier anmelden.

1

Freitag, 15. April 2011, 09:29

Poorman´s HDR mit AviSynth + NLE

Hallo Leute!

Habe da Gestern Abend etwas tolles entdeckt zum Thema (Pseudo)-HDR-Video. Ich meine damit nicht diese mieserabel gefaketen "Möchtegern-HDR-Videos", wie man sie neuerdings zu Hauf bei YouTube ertragen muß. Nein, mal ein positives Beispiel für das, was HDR ja eigentlich sein soll, nämlich aus digitalen Fotos/Videos einen möglichst hohen Kontrastumfang herauszuholen!

Schaut Euch das mal an: http://www.cinema5d.com/viewtopic.php?f=12&t=21041

Um es kurz zu machen: Er erzeugt mit Hilfe von AviSynth und einem Plugin namens HDR-AGC ein Ultraflat-Image, auf dessen Basis er dann sowohl den Himmel kontrastreich darstellen zu können, als auch die übrige Landschaft,(als Beispiel). Erstaunliches Ergebnis finde ich.

Ich habe mir HDR-AGC mal heruntergeladen,(von einer amerikanischen Seite), weiß allerdins nicht, wie ich es in AviSynth integriert bekomme---geht irgendwie nicht.

Die Idee, die dahinter steckt, ist ja folgende: Da man mittlerweile, ja nicht nur sowohl von 1 RAW-Foto ausgehend, sondern ja sogar von 1 JPEG-Foto (!) ausgehend High Dimension Range produzieren kann und das nicht mal schlecht, warum sollte das nicht auch mit Video funktionieren?

Mich fasziniert daran übrigens nicht dieser teilweise überzogene "Wimmelbild-Look", sondern die Möglichkeit, möglichst viele verlorene, bzw. nicht darstellbare Bilddetails aus den Lichtern und den Schatten hinüberzuretten.

Schönen Gruß,

Kalle

MP-Digital

Steadicam Operator

  • »MP-Digital« ist männlich

Beiträge: 2 855

Dabei seit: 6. März 2009

Wohnort: Reutlingen

Hilfreich-Bewertungen: 127

  • Private Nachricht senden

2

Freitag, 15. April 2011, 15:08

Das sind ja tolle Bilder oder Szenen.

Aber sag, wir dass alle in der Kamera erzeugt oder auf dem Schnittplatz (wie in PhotoShop) wo man die eingenen Bilder überlagert.

joey23

Registrierter Benutzer

Beiträge: 5 411

Dabei seit: 12. September 2009

Hilfreich-Bewertungen: 1227

  • Private Nachricht senden

3

Freitag, 15. April 2011, 18:49

In der Tat schöne Aufnahmen. Wenn du das hinbekommst, würde ich mich über eine kleine Anleitung freuen.
Nordisch bei Nature!

4

Samstag, 16. April 2011, 08:23

In der Tat schöne Aufnahmen. Wenn du das hinbekommst, würde ich mich über eine kleine Anleitung freuen.

Also, wiegesagt: Er verwendet AviSynth + HDRAGC und schärft nach mit aSharp. Mir fehlen leider die Kenntnisse, um AviSynth anwenden zu können. das ist doch einfach so ein Skript? Wie bekomme ich da Videos zum bearbeiten hinein, oder wie lege ich dieses Werkzeug auf Videos? Das ist mir schon mal schleierhaft.
Ich versuche Jim Finley ansonsten mal anzumailen. Die Ergebnisse sind jedenfalls erstklassig.

Ich bekomme zwar annähernd ähnliche Ergebnisse hin, wenn der Horizont eindeutig nachvollziehbar ist und da keine beweglichen Teile im Weg sind. :D Klar, mit Masking, aber, das kann ja jeder...

5

Sonntag, 17. April 2011, 20:09

In der Tat schöne Aufnahmen. Wenn du das hinbekommst, würde ich mich über eine kleine Anleitung freuen.

So, ich bin mittlerweile ein großes Stück weiter: Also, man konvertiert einen Clip zunächst in das AVI-Format. Diesen holt man sich in irgendeinen Ordner, mit dem man arbeitet. Man erstellt nun ein AviSynth-Skript, was sich auf diesen Clip bezieht. Wie das geht, siehe hier: http://www.youtube.com/watch?v=RXByaCFgIHc
Dann ruft man über dieses Skript diesen Clip auf, drückt Ctrl+E und kann nun alles mögliche an Befehlen da eingeben. Z.B. "hdragc()". Dann F5 drücken zum erneuern und schwupp...da ist er..., der Subadubaultra-Flat-Look! ....dann rendern.
Ganz nebenbei sind dabei aus 50Mbyte satte knapp 6 Gbyte geworden! Aber egal. Dieser Flatlook-Clip läßt sich nun in der NLE, in meinem Falle Sony Vegas, in die Timeline ziehen und bearbeiten.
So und hier ist nun leider wieder Ende ;( . Wenn ich nämlich nun beginne, über "Curves" und "Color Corrector", etc., aus dem flauen Look wieder ein knackiges, einigermaßen kontrastreiches Bild zu erzeugen, dann haben wir den Salat: Der Himmel brennt sofort wieder aus, die Wolkenkonturen verwischen und ich habe mich nach der ganzen Mühe einmal im Kreis gedreht! 8|

Es gibt aber da noch einen viel einfacheren Weg, den ich getestet habe, der jedoch auch Nachteile hat: Auf den Originalclip in Vegas MBL ziehen, im Editor einen 3-Wege-Korrektor drauf, Schatten,(und nur die), etwas anheben, evtl. einen Gradienten, (natürlich ohne Soßenfarbe), für den Himmel, fertig. Nun noch an Kurven, Gamma, Sättigung, etc. rumspielen, das übliche fertig. Der Geheimtipp? Denkste!
Problem ist nun (und darüber habe ich auch verschiedentlich gelesen), daß da, wo man die Schattenpartien anhebt, zumindest etwas Bildrauschen erkennbar ist. Wahrscheinlich wurde da der Gain hochgeschraubt?
Also, wie man sieht: Unternehmen Pseudo-HDR bei Video gestaltet sich garnicht so einfach. :wacko:

So und hier nun mal ein kleiner Beispielclip von mir, wie ich an die Sache mit den normalen "Bordmittel" herangehe, also, ohne irgendwelche HDR-Verrenkungen: http://www.youtube.com/watch?v=_C2Xw6ya1JM

hoffe, der Link funktioniert. Also, ich hätte da jetzt spontan zu bemängeln, daß bei den Meereswellen Details verloren gehen. Hätte man mit einem weiteren Gradienten sicher lösen können, aber, wiegesagt, es war nur mal so spontan, um mal zu zeigen, was ich so probiere.

p.s.: Ich konnt´s nicht mit ansehen :wacko: , daher hier nochmal ne Nachbesserung, damit mir da keine Reklamationen kommen :D .http://www.youtube.com/watch?v=mLA0ukGT6Ww Das Motiv ist jetzt mal belanglos. War so ein "dahingerotzter" Sonntag-Nachmittag-Clip.

Dieser Beitrag wurde bereits 4 mal editiert, zuletzt von »Kalle« (17. April 2011, 23:38)


Yggdrasil

unregistriert

6

Montag, 18. April 2011, 01:47

Wenn er irgendwas von Bypassing redet, dann verstehe ich das so, dass er die Quicktime kodierung der kamerainternen Software irgendwie umgeht?!
Dass man Himmel und Details ja nicht sieht liegt ja an der 8-Bit Kodierung, die Informationen existieren ja im auf der Kamera gespeicherten Video gar nicht mehr, da sie nicht mit angespeichert werden, da bei 8-Bit zu wenig Bildinformation pro Pixel existiert. Habe schonmal einen 32-Bit float digitalisierten Filmstreifen im Cineon Format bearbeitet, das ist so krass wie viele Details man hat, auch an Stellen die eigentlich komplett weiß oder schwarz erscheinen. Wenn man dort den Gamma runterdreht, dann wird nicht das ganze Bild einfach dunkler, sondern die Details erscheinen, zB Wolken usw. Wenn man das bei so ein Videofile der 7D macht, wird der ganze Himmel einfach nur grauer.

HDR mit Spiegelreflexkameras funkioniert ja auch nur, wenn man mehrere Fotos mit unterschiedlicher Belichtung macht und diese dann mit einer speziellen Software ineinander rechnen lässt. Mich interessiert es echt, wie der Typ das in dem Video da gemacht hat.

7

Montag, 18. April 2011, 09:47

Wenn er irgendwas von Bypassing redet, dann verstehe ich das so, dass er die Quicktime kodierung der kamerainternen Software irgendwie umgeht?!
Dass man Himmel und Details ja nicht sieht liegt ja an der 8-Bit Kodierung, die Informationen existieren ja im auf der Kamera gespeicherten Video gar nicht mehr, da sie nicht mit angespeichert werden, da bei 8-Bit zu wenig Bildinformation pro Pixel existiert. Habe schonmal einen 32-Bit float digitalisierten Filmstreifen im Cineon Format bearbeitet, das ist so krass wie viele Details man hat, auch an Stellen die eigentlich komplett weiß oder schwarz erscheinen. Wenn man dort den Gamma runterdreht, dann wird nicht das ganze Bild einfach dunkler, sondern die Details erscheinen, zB Wolken usw. Wenn man das bei so ein Videofile der 7D macht, wird der ganze Himmel einfach nur grauer.

HDR mit Spiegelreflexkameras funkioniert ja auch nur, wenn man mehrere Fotos mit unterschiedlicher Belichtung macht und diese dann mit einer speziellen Software ineinander rechnen lässt. Mich interessiert es echt, wie der Typ das in dem Video da gemacht hat.

Ja irgendwie so, habe das auch nicht ganz verstanden. Was an Informationen nicht von der Kamera auf dem Chip gespeichert wurde, ist doch wohl unweigerlich verloren, oder sehe ich das falsch?

Ich glaube, der Grundgedanke ist davon ab folgender: Wenn ich leicht unterbelichte, kann ich später Bildinfos, die in den Schatten abgesoffen sind, angeblich noch herausholen, während in überbelichteten Partien, die Bildinfos irreparabel verloren sind. Also im Zweifel lieber etwas runter mit der Belichtung.
Um das ganze "Bitgefasel" hatte ich mich nie gekümmert, weil ich die Bedeutung ehrlich gesagt nie so ganz verstanden hatte. Ich hatte nur soviel kapiert: Mehr bit = bessere Bildqualität, warum auch immer.
Finlay benutzt im Beispiel ne 7D. Mit wieviel bit nimmt die T2i eigentlich auf? Fotos sind ja 14 bit, soweit ich weiß. Videos denn auch? :whistling:

p.s.: habe nochmal nachgelesen. Also die HF100 nimmt mit 17 Mbit/s auf. die neueren Modelle mit 24Mbit/s. Die EOS mit 48 ??? Kann das sein???

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Kalle« (18. April 2011, 16:00)


Yggdrasil

unregistriert

8

Montag, 18. April 2011, 21:41

7D und 550D sind bezüglich Video gleich. Durch die Komprimierung gehen halt sau viele Bild und Farbinformationen verloren, 8-Bit Farbtiefe suckt halt, egal wie man belichtet. Wenn man bedenkt, dass ein RAW-Foto schon um die 30-40 MB haben, stell dir mal vor, wie groß ein Videofile von einer Sekunde mit 25 fps wäre. RAW hat zB bis zu 14 bit pro Pixel, gerechnet wird 2 hoch 8, bzw. 2 hoch 14.

2 hoch 8 = 256 x 3, weil 3 Farbkanäle pro Pixel = 786
2 hoch 14 = 16348 x 3 = 49044

Da kann man sich schon ausmalen, wie krass da der Informationsunterschied und der Dynamikumfang sind.

freezer

Filmemacher / Postpro / FH Vortragender

  • »freezer« ist männlich

Beiträge: 1 637

Dabei seit: 21. Juli 2005

Wohnort: Graz, Österreich

Hilfreich-Bewertungen: 201

  • Private Nachricht senden

9

Dienstag, 19. April 2011, 12:46

Ja irgendwie so, habe das auch nicht ganz verstanden. Was an Informationen nicht von der Kamera auf dem Chip gespeichert wurde, ist doch wohl unweigerlich verloren, oder sehe ich das falsch?

Ich glaube, der Grundgedanke ist davon ab folgender: Wenn ich leicht unterbelichte, kann ich später Bildinfos, die in den Schatten abgesoffen sind, angeblich noch herausholen, während in überbelichteten Partien, die Bildinfos irreparabel verloren sind. Also im Zweifel lieber etwas runter mit der Belichtung.
Um das ganze "Bitgefasel" hatte ich mich nie gekümmert, weil ich die Bedeutung ehrlich gesagt nie so ganz verstanden hatte. Ich hatte nur soviel kapiert: Mehr bit = bessere Bildqualität, warum auch immer.
Finlay benutzt im Beispiel ne 7D. Mit wieviel bit nimmt die T2i eigentlich auf? Fotos sind ja 14 bit, soweit ich weiß. Videos denn auch?


Mit welcher Farbtiefe ein RAW-Bild aufgenommen wird, hängt ganz von der Hardware (Analog-Digital-Wandler) ab. Der Wandler in der EOS550D ist am Stand der Technik und digitalisiert mit einer Auflösungsgenauigkeit von 14 bit. Diese begrenzt auch gleichzeitig den theoretischen Dynamikumfang der Kamera. Der praktische Dynamikumfang wird dann durch das Rauschverhalten des Systems begrenzt.

Das menschliche Auge nutzt eine Gammakorrektur, die dunklere Bereich aufhellt - ähnlich wie eine Gradationskurve in Photoshop.
Der Sensor der Kamera sieht das Licht aber linear. Ein unkorrigiertes Rohbild sieht daher total dunkel aus und muss zum Betrachten ebenso über eine Gammakurve aufgehellt werden. Das Problem ist nun, dass die Helligkeitsstufen alle linear mit den gleichen Abständen gesampelt und gespeichert wurden. Die Gammakorrektur führt aber zu einer extremen Aufspreizung der dunklen Bereiche - dort wo das Auge am empfindlichsten auf Farbverlaufsabrisse reagiert. Je höher die Farbtiefe, in der gearbeitet wird, desto weniger Abrisse entstehen aufgrund der größeren Anzahl an Abstufungen.

2 hoch 8 = 256 x 3, weil 3 Farbkanäle pro Pixel = 786
2 hoch 14 = 16348 x 3 = 49044


Die Rechnung ist nur leider ganz falsch!

Farbtiefe pro Kanal: 8 bit = 2^8 = 256 Abstufungen
Farbtiefe pro Pixel: RGB = 3 x 8 bit = 24 bit = 2^24 = 16.777.216 mögliche Farben.

Farbtiefe pro Kanal: 14 bit = 2^14 = 16384 Abstufungen
Farbtiefe pro Pixel: RGB = 3 x 14 bit = 42 bit = 2^42 = 4.398.046.511.104 mögliche Farben.
Robert Niessner - Planung / Kamera / Licht / Postproduktion
8010 Graz - Austria
Blackmagic Cinema Camera Blog

10

Dienstag, 19. April 2011, 17:33

Ja irgendwie so, habe das auch nicht ganz verstanden. Was an Informationen nicht von der Kamera auf dem Chip gespeichert wurde, ist doch wohl unweigerlich verloren, oder sehe ich das falsch?

Ich glaube, der Grundgedanke ist davon ab folgender: Wenn ich leicht unterbelichte, kann ich später Bildinfos, die in den Schatten abgesoffen sind, angeblich noch herausholen, während in überbelichteten Partien, die Bildinfos irreparabel verloren sind. Also im Zweifel lieber etwas runter mit der Belichtung.
Um das ganze "Bitgefasel" hatte ich mich nie gekümmert, weil ich die Bedeutung ehrlich gesagt nie so ganz verstanden hatte. Ich hatte nur soviel kapiert: Mehr bit = bessere Bildqualität, warum auch immer.
Finlay benutzt im Beispiel ne 7D. Mit wieviel bit nimmt die T2i eigentlich auf? Fotos sind ja 14 bit, soweit ich weiß. Videos denn auch?


Mit welcher Farbtiefe ein RAW-Bild aufgenommen wird, hängt ganz von der Hardware (Analog-Digital-Wandler) ab. Der Wandler in der EOS550D ist am Stand der Technik und digitalisiert mit einer Auflösungsgenauigkeit von 14 bit. Diese begrenzt auch gleichzeitig den theoretischen Dynamikumfang der Kamera. Der praktische Dynamikumfang wird dann durch das Rauschverhalten des Systems begrenzt.

Das menschliche Auge nutzt eine Gammakorrektur, die dunklere Bereich aufhellt - ähnlich wie eine Gradationskurve in Photoshop.
Der Sensor der Kamera sieht das Licht aber linear. Ein unkorrigiertes Rohbild sieht daher total dunkel aus und muss zum Betrachten ebenso über eine Gammakurve aufgehellt werden. Das Problem ist nun, dass die Helligkeitsstufen alle linear mit den gleichen Abständen gesampelt und gespeichert wurden. Die Gammakorrektur führt aber zu einer extremen Aufspreizung der dunklen Bereiche - dort wo das Auge am empfindlichsten auf Farbverlaufsabrisse reagiert. Je höher die Farbtiefe, in der gearbeitet wird, desto weniger Abrisse entstehen aufgrund der größeren Anzahl an Abstufungen.

2 hoch 8 = 256 x 3, weil 3 Farbkanäle pro Pixel = 786
2 hoch 14 = 16348 x 3 = 49044


Die Rechnung ist nur leider ganz falsch!

Farbtiefe pro Kanal: 8 bit = 2^8 = 256 Abstufungen
Farbtiefe pro Pixel: RGB = 3 x 8 bit = 24 bit = 2^24 = 16.777.216 mögliche Farben.

Farbtiefe pro Kanal: 14 bit = 2^14 = 16384 Abstufungen
Farbtiefe pro Pixel: RGB = 3 x 14 bit = 42 bit = 2^42 = 4.398.046.511.104 mögliche Farben.

das hieße ja, daß zwischen 8 bit Farbtiefe und 14 bit Farbtiefe keine Welten, sondern Universen liegen würden? Kann unser Auge das überhaupt wahrnehmen?
Wenn ja, hieße das dann, daß in puncto Farbe ein Unterschied von HV30/HF100 zu EOST2i/7D in etwa der wäre zwischen grottenschlecht und brilliant? Ist mir aber zumindest bei der Farbgebung so noch nicht aufgefallen,(bei den obigen Cams im Vergleich). 8-)

freezer

Filmemacher / Postpro / FH Vortragender

  • »freezer« ist männlich

Beiträge: 1 637

Dabei seit: 21. Juli 2005

Wohnort: Graz, Österreich

Hilfreich-Bewertungen: 201

  • Private Nachricht senden

11

Dienstag, 19. April 2011, 21:21

das hieße ja, daß zwischen 8 bit Farbtiefe und 14 bit Farbtiefe keine Welten, sondern Universen liegen würden? Kann unser Auge das überhaupt wahrnehmen?
Wenn ja, hieße das dann, daß in puncto Farbe ein Unterschied von HV30/HF100 zu EOST2i/7D in etwa der wäre zwischen grottenschlecht und brilliant? Ist mir aber zumindest bei der Farbgebung so noch nicht aufgefallen,(bei den obigen Cams im Vergleich).


Nein - das heißt es nicht. Zumal auch die HV30 sicher einen höherbittigen AD-Wandler einsetzt. Nach der Signalverarbeitung im Inneren wird dann die Farbtiefe auf 8 Bit runtergerechnet. Gleich wie es die EOS550D beim Speichern im JPG Bildformat/h264 Videoformat macht.

Die interne Signalverarbeitung in den Kameras erfolgt höherbittig. Wenn Du dann das finale Ergebnis siehst, so wurde ja bereits eine Gammakurve angewandt. Erst wenn Du nun auf dem 3x 8 Bit (was genau genommen nicht korrekt ist, da Video nicht im RGB Raum gespeichert wird) Material weiter arbeitest, dann wird die reduzierte Farbtiefe wirklich relevant.
Robert Niessner - Planung / Kamera / Licht / Postproduktion
8010 Graz - Austria
Blackmagic Cinema Camera Blog

12

Dienstag, 19. April 2011, 22:46

das hieße ja, daß zwischen 8 bit Farbtiefe und 14 bit Farbtiefe keine Welten, sondern Universen liegen würden? Kann unser Auge das überhaupt wahrnehmen?
Wenn ja, hieße das dann, daß in puncto Farbe ein Unterschied von HV30/HF100 zu EOST2i/7D in etwa der wäre zwischen grottenschlecht und brilliant? Ist mir aber zumindest bei der Farbgebung so noch nicht aufgefallen,(bei den obigen Cams im Vergleich).


Nein - das heißt es nicht. Zumal auch die HV30 sicher einen höherbittigen AD-Wandler einsetzt. Nach der Signalverarbeitung im Inneren wird dann die Farbtiefe auf 8 Bit runtergerechnet. Gleich wie es die EOS550D beim Speichern im JPG Bildformat/h264 Videoformat macht.

Die interne Signalverarbeitung in den Kameras erfolgt höherbittig. Wenn Du dann das finale Ergebnis siehst, so wurde ja bereits eine Gammakurve angewandt. Erst wenn Du nun auf dem 3x 8 Bit (was genau genommen nicht korrekt ist, da Video nicht im RGB Raum gespeichert wird) Material weiter arbeitest, dann wird die reduzierte Farbtiefe wirklich relevant.

Hmmm...den Schluß habe ich nicht ganz verstanden. Nach anfänglich höherbittiger AD-Aufnahme wird auf 8 Bit heruntergerechnet, wahrscheinlich, um alles platzssparend zu speichern, richtig? Sind dabei nicht schon Informationen verlorengegangen, oder kann ich danach, sozusagen das wieder extrahieren und dann höherbittig Nacharbeiten?
(Ich staune, mal so nebenbei bemerkt, über Dein enormes Hintergrundwissen. Kompliment!)

Gruß, Kalle

freezer

Filmemacher / Postpro / FH Vortragender

  • »freezer« ist männlich

Beiträge: 1 637

Dabei seit: 21. Juli 2005

Wohnort: Graz, Österreich

Hilfreich-Bewertungen: 201

  • Private Nachricht senden

13

Dienstag, 19. April 2011, 23:24

Was weg ist, ist weg. Zum einen muss man versuchen die Datenmengen im Zaum zu halten und zum anderen ist eine höhere Bit-Tiefe für den durchschnittlichen Benutzer auch nicht interessant.

RAW Fotografie macht ja auch nicht jeder.

Nochmals zum besseren Verständnis:
* hohe Bit-Tiefe ermöglicht bessere Bildmanipulation
* Rohbild vom Sensor ist sehr dunkel (aber 14 Bit Auflösung) (RGB bei CCD bzw. Bayer-Pattern bei CMOS)
* Rohbild wird vom Signalprozessor bearbeitet und für eine korrekte Wiedergabe aufbereitet (zB Aufhellung durch Gammakurve) (14 Bit) (RGB)
* Feinbild läuft durch Kompressionsprozessor und wird für Kompression vorbereitet (Rauschfilter, Konvertierung nach 8 Bit, etc) (8 Bit) (YUV)
* komprimiertes Endbild wird auf Band / SD-Karte / etc. gespeichert (<8 Bit) (YUV) (reduzierte Farbauflösung 4:2:0)

Anwender möchte nun mit dem Material arbeiten und zB dunkle Bereiche weiter aufhellen -> Rauschen wird stärker sichtbar, wenig vorhandene Abstufungen in dunklen Bereichen führen zu stufig wirkenden Farbübergängen, Kompressionsartefakte werden sichtbar.

Allerdings lassen sich durch das nachträgliche Arbeiten mit höherer Bit-Tiefe (16 Bit / 32 Bit) zumindest ein wenig die Folgen abmildern.

Die EOS550D ist gegenüber der HV30 aufgrund des größeren Sensors und des damit verbundenen geringeren Rauschens im Vorteil.
Robert Niessner - Planung / Kamera / Licht / Postproduktion
8010 Graz - Austria
Blackmagic Cinema Camera Blog

14

Dienstag, 19. April 2011, 23:39

Was weg ist, ist weg. Zum einen muss man versuchen die Datenmengen im Zaum zu halten und zum anderen ist eine höhere Bit-Tiefe für den durchschnittlichen Benutzer auch nicht interessant.

RAW Fotografie macht ja auch nicht jeder.

Nochmals zum besseren Verständnis:
* hohe Bit-Tiefe ermöglicht bessere Bildmanipulation
* Rohbild vom Sensor ist sehr dunkel (aber 14 Bit Auflösung) (RGB bei CCD bzw. Bayer-Pattern bei CMOS)
* Rohbild wird vom Signalprozessor bearbeitet und für eine korrekte Wiedergabe aufbereitet (zB Aufhellung durch Gammakurve) (14 Bit) (RGB)
* Feinbild läuft durch Kompressionsprozessor und wird für Kompression vorbereitet (Rauschfilter, Konvertierung nach 8 Bit, etc) (8 Bit) (YUV)
* komprimiertes Endbild wird auf Band / SD-Karte / etc. gespeichert (<8 Bit) (YUV) (reduzierte Farbauflösung 4:2:0)

Anwender möchte nun mit dem Material arbeiten und zB dunkle Bereiche weiter aufhellen -> Rauschen wird stärker sichtbar, wenig vorhandene Abstufungen in dunklen Bereichen führen zu stufig wirkenden Farbübergängen, Kompressionsartefakte werden sichtbar.

Allerdings lassen sich durch das nachträgliche Arbeiten mit höherer Bit-Tiefe (16 Bit / 32 Bit) zumindest ein wenig die Folgen abmildern.

Die EOS550D ist gegenüber der HV30 aufgrund des größeren Sensors und des damit verbundenen geringeren Rauschens im Vorteil.

aber, wie mache ich die "Schadensbegrenzung" in der Nachbearbeitung? Liegen da die Qualitätsunterschiede der NLE`s? Sprich, muß ich darauf achten, daß meine NLE-Software eine möglichst hohe Bittiefe gewährleistet?

freezer

Filmemacher / Postpro / FH Vortragender

  • »freezer« ist männlich

Beiträge: 1 637

Dabei seit: 21. Juli 2005

Wohnort: Graz, Österreich

Hilfreich-Bewertungen: 201

  • Private Nachricht senden

15

Dienstag, 19. April 2011, 23:47

Du kannst bspw. in Premiere Pro die Projekteigenschaften auf "Maximale Farbtiefe" stellen und dann lässt sich mit dem Effekt RGB-Kurven ein bisschen was in der Lichterzeichnung wieder herstellen. Oft sind die hellen Bereiche gar nicht ausgefressen, sondern liegen im "Superwhite" Bereich (alles über RGB Wert von 235) und werden nur bei der Darstellung geclippt.
Robert Niessner - Planung / Kamera / Licht / Postproduktion
8010 Graz - Austria
Blackmagic Cinema Camera Blog

Yggdrasil

unregistriert

16

Mittwoch, 20. April 2011, 00:14

Sry für die falsche Rechnung, keine Ahnung was mir da eingefallen ist^^

17

Mittwoch, 20. April 2011, 10:58

Du kannst bspw. in Premiere Pro die Projekteigenschaften auf "Maximale Farbtiefe" stellen und dann lässt sich mit dem Effekt RGB-Kurven ein bisschen was in der Lichterzeichnung wieder herstellen. Oft sind die hellen Bereiche gar nicht ausgefressen, sondern liegen im "Superwhite" Bereich (alles über RGB Wert von 235) und werden nur bei der Darstellung geclippt.

hallo nochmal. Daraus schlußfolgere ich, daß man durchaus aus den "ausgefressenen" Lichtern noch Details zurückgewinnen könnte? Schafft Sony Vegas ab Version 8-Pro sowas auch? Wo könnte ich mich denn mal am besten belesen über diese technischen Details? Bücher, oder auch ne Website. Würde die Hintergründe gerne noch besser verstehen... :S

freezer

Filmemacher / Postpro / FH Vortragender

  • »freezer« ist männlich

Beiträge: 1 637

Dabei seit: 21. Juli 2005

Wohnort: Graz, Österreich

Hilfreich-Bewertungen: 201

  • Private Nachricht senden

18

Mittwoch, 20. April 2011, 11:45

Du kannst Sony Vegas Pro auf 32 Bit umstellen, allerdings wird es dann sehr zäh. Zudem arbeitet Vegas dann mit unterschiedlichen Luminanzbereichen.
Viele Infos zu Sony Vegas und dem richtigen Umgang mit Superwhite:
http://www.glennchan.info/articles/vegas…htm#superwhites
http://www.glennchan.info/articles/articles.html


Zum Einlesen bez. RAW und Farbtiefe:
http://www.cambridgeincolour.com/tutorials.htm
http://www.cambridgeincolour.com/tutorials/bit-depth.htm
http://www.cambridgeincolour.com/tutorials/posterization.htm
http://www.cambridgeincolour.com/tutorials/dynamic-range.htm
http://www.cambridgeincolour.com/tutoria…file-format.htm
Robert Niessner - Planung / Kamera / Licht / Postproduktion
8010 Graz - Austria
Blackmagic Cinema Camera Blog

Es hat bereits 1 Gast diesen Beitrag als hilfreich eingestuft.

19

Mittwoch, 20. April 2011, 12:02

Du kannst Sony Vegas Pro auf 32 Bit umstellen, allerdings wird es dann sehr zäh. Zudem arbeitet Vegas dann mit unterschiedlichen Luminanzbereichen.
Viele Infos zu Sony Vegas und dem richtigen Umgang mit Superwhite:
http://www.glennchan.info/articles/vegas…htm#superwhites
http://www.glennchan.info/articles/articles.html


Zum Einlesen bez. RAW und Farbtiefe:
http://www.cambridgeincolour.com/tutorials.htm
http://www.cambridgeincolour.com/tutorials/bit-depth.htm
http://www.cambridgeincolour.com/tutorials/posterization.htm
http://www.cambridgeincolour.com/tutorials/dynamic-range.htm
http://www.cambridgeincolour.com/tutoria…file-format.htm

prima, Danke!

20

Donnerstag, 2. Juni 2011, 11:40

Auch wenn ein Moment vergangen ist, hier eine kleine "Fortsetzung" meiner Bestrebungen, auch mit einfachen Amateurcams, wie meiner Canon HF100, einen möglichst hohen Dynamikumfang zu erzielen, bzw. diesen zu erhalten:

Auf Anregung dieses tollen Tutorials auf vimeo, (guckst du hier: http://vimeo.com/24334195 ), habe ich in Vegas mal die "RGB-Parade" hinzugezogen,(Vectorscopes) und dann, wie im Tutorial beschrieben, über Levels den Dynamikumfang nach unten und oben ausgereizt, ohne ausgefressene Lichter und in völliger Schwärze abgesoffene Details.

Klappt echt sehr gut, probiert es mal aus, wenn Ihr Lust habt,(also alle, die Vegas verwenden). Wichtig ist natürlich, daß man "flat" aufgenommen hat und das klappt im Falle der HF100 z.B. im "Cinema-Modus" ganz gut, nachdem man Schärfe, Kontrast, Farben, usw. heruntergeschraubt hat, d.h., alle kamerainternen "Bildverbesserer" möglichst weit deaktiviert wurden.

Gruß,

Kalle