Lieber Besucher, herzlich willkommen bei: Amateurfilm-Forum. Falls dies dein erster Besuch auf dieser Seite ist, lies bitte die Hilfe durch. Dort wird dir die Bedienung dieser Seite näher erläutert. Darüber hinaus solltest du dich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutze das Registrierungsformular, um dich zu registrieren oder informiere dich ausführlich über den Registrierungsvorgang. Falls du dich bereits zu einem früheren Zeitpunkt registriert hast, kannst du dich hier anmelden.
In der Tat schöne Aufnahmen. Wenn du das hinbekommst, würde ich mich über eine kleine Anleitung freuen.
In der Tat schöne Aufnahmen. Wenn du das hinbekommst, würde ich mich über eine kleine Anleitung freuen.
Dieser Beitrag wurde bereits 4 mal editiert, zuletzt von »Kalle« (17. April 2011, 23:38)
Wenn er irgendwas von Bypassing redet, dann verstehe ich das so, dass er die Quicktime kodierung der kamerainternen Software irgendwie umgeht?!
Dass man Himmel und Details ja nicht sieht liegt ja an der 8-Bit Kodierung, die Informationen existieren ja im auf der Kamera gespeicherten Video gar nicht mehr, da sie nicht mit angespeichert werden, da bei 8-Bit zu wenig Bildinformation pro Pixel existiert. Habe schonmal einen 32-Bit float digitalisierten Filmstreifen im Cineon Format bearbeitet, das ist so krass wie viele Details man hat, auch an Stellen die eigentlich komplett weiß oder schwarz erscheinen. Wenn man dort den Gamma runterdreht, dann wird nicht das ganze Bild einfach dunkler, sondern die Details erscheinen, zB Wolken usw. Wenn man das bei so ein Videofile der 7D macht, wird der ganze Himmel einfach nur grauer.
HDR mit Spiegelreflexkameras funkioniert ja auch nur, wenn man mehrere Fotos mit unterschiedlicher Belichtung macht und diese dann mit einer speziellen Software ineinander rechnen lässt. Mich interessiert es echt, wie der Typ das in dem Video da gemacht hat.
Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Kalle« (18. April 2011, 16:00)
Ja irgendwie so, habe das auch nicht ganz verstanden. Was an Informationen nicht von der Kamera auf dem Chip gespeichert wurde, ist doch wohl unweigerlich verloren, oder sehe ich das falsch?
Ich glaube, der Grundgedanke ist davon ab folgender: Wenn ich leicht unterbelichte, kann ich später Bildinfos, die in den Schatten abgesoffen sind, angeblich noch herausholen, während in überbelichteten Partien, die Bildinfos irreparabel verloren sind. Also im Zweifel lieber etwas runter mit der Belichtung.
Um das ganze "Bitgefasel" hatte ich mich nie gekümmert, weil ich die Bedeutung ehrlich gesagt nie so ganz verstanden hatte. Ich hatte nur soviel kapiert: Mehr bit = bessere Bildqualität, warum auch immer.
Finlay benutzt im Beispiel ne 7D. Mit wieviel bit nimmt die T2i eigentlich auf? Fotos sind ja 14 bit, soweit ich weiß. Videos denn auch?
2 hoch 8 = 256 x 3, weil 3 Farbkanäle pro Pixel = 786
2 hoch 14 = 16348 x 3 = 49044
Ja irgendwie so, habe das auch nicht ganz verstanden. Was an Informationen nicht von der Kamera auf dem Chip gespeichert wurde, ist doch wohl unweigerlich verloren, oder sehe ich das falsch?
Ich glaube, der Grundgedanke ist davon ab folgender: Wenn ich leicht unterbelichte, kann ich später Bildinfos, die in den Schatten abgesoffen sind, angeblich noch herausholen, während in überbelichteten Partien, die Bildinfos irreparabel verloren sind. Also im Zweifel lieber etwas runter mit der Belichtung.
Um das ganze "Bitgefasel" hatte ich mich nie gekümmert, weil ich die Bedeutung ehrlich gesagt nie so ganz verstanden hatte. Ich hatte nur soviel kapiert: Mehr bit = bessere Bildqualität, warum auch immer.
Finlay benutzt im Beispiel ne 7D. Mit wieviel bit nimmt die T2i eigentlich auf? Fotos sind ja 14 bit, soweit ich weiß. Videos denn auch?
Mit welcher Farbtiefe ein RAW-Bild aufgenommen wird, hängt ganz von der Hardware (Analog-Digital-Wandler) ab. Der Wandler in der EOS550D ist am Stand der Technik und digitalisiert mit einer Auflösungsgenauigkeit von 14 bit. Diese begrenzt auch gleichzeitig den theoretischen Dynamikumfang der Kamera. Der praktische Dynamikumfang wird dann durch das Rauschverhalten des Systems begrenzt.
Das menschliche Auge nutzt eine Gammakorrektur, die dunklere Bereich aufhellt - ähnlich wie eine Gradationskurve in Photoshop.
Der Sensor der Kamera sieht das Licht aber linear. Ein unkorrigiertes Rohbild sieht daher total dunkel aus und muss zum Betrachten ebenso über eine Gammakurve aufgehellt werden. Das Problem ist nun, dass die Helligkeitsstufen alle linear mit den gleichen Abständen gesampelt und gespeichert wurden. Die Gammakorrektur führt aber zu einer extremen Aufspreizung der dunklen Bereiche - dort wo das Auge am empfindlichsten auf Farbverlaufsabrisse reagiert. Je höher die Farbtiefe, in der gearbeitet wird, desto weniger Abrisse entstehen aufgrund der größeren Anzahl an Abstufungen.
2 hoch 8 = 256 x 3, weil 3 Farbkanäle pro Pixel = 786
2 hoch 14 = 16348 x 3 = 49044
Die Rechnung ist nur leider ganz falsch!
Farbtiefe pro Kanal: 8 bit = 2^8 = 256 Abstufungen
Farbtiefe pro Pixel: RGB = 3 x 8 bit = 24 bit = 2^24 = 16.777.216 mögliche Farben.
Farbtiefe pro Kanal: 14 bit = 2^14 = 16384 Abstufungen
Farbtiefe pro Pixel: RGB = 3 x 14 bit = 42 bit = 2^42 = 4.398.046.511.104 mögliche Farben.
das hieße ja, daß zwischen 8 bit Farbtiefe und 14 bit Farbtiefe keine Welten, sondern Universen liegen würden? Kann unser Auge das überhaupt wahrnehmen?
Wenn ja, hieße das dann, daß in puncto Farbe ein Unterschied von HV30/HF100 zu EOST2i/7D in etwa der wäre zwischen grottenschlecht und brilliant? Ist mir aber zumindest bei der Farbgebung so noch nicht aufgefallen,(bei den obigen Cams im Vergleich).
das hieße ja, daß zwischen 8 bit Farbtiefe und 14 bit Farbtiefe keine Welten, sondern Universen liegen würden? Kann unser Auge das überhaupt wahrnehmen?
Wenn ja, hieße das dann, daß in puncto Farbe ein Unterschied von HV30/HF100 zu EOST2i/7D in etwa der wäre zwischen grottenschlecht und brilliant? Ist mir aber zumindest bei der Farbgebung so noch nicht aufgefallen,(bei den obigen Cams im Vergleich).
Nein - das heißt es nicht. Zumal auch die HV30 sicher einen höherbittigen AD-Wandler einsetzt. Nach der Signalverarbeitung im Inneren wird dann die Farbtiefe auf 8 Bit runtergerechnet. Gleich wie es die EOS550D beim Speichern im JPG Bildformat/h264 Videoformat macht.
Die interne Signalverarbeitung in den Kameras erfolgt höherbittig. Wenn Du dann das finale Ergebnis siehst, so wurde ja bereits eine Gammakurve angewandt. Erst wenn Du nun auf dem 3x 8 Bit (was genau genommen nicht korrekt ist, da Video nicht im RGB Raum gespeichert wird) Material weiter arbeitest, dann wird die reduzierte Farbtiefe wirklich relevant.
Was weg ist, ist weg. Zum einen muss man versuchen die Datenmengen im Zaum zu halten und zum anderen ist eine höhere Bit-Tiefe für den durchschnittlichen Benutzer auch nicht interessant.
RAW Fotografie macht ja auch nicht jeder.
Nochmals zum besseren Verständnis:
* hohe Bit-Tiefe ermöglicht bessere Bildmanipulation
* Rohbild vom Sensor ist sehr dunkel (aber 14 Bit Auflösung) (RGB bei CCD bzw. Bayer-Pattern bei CMOS)
* Rohbild wird vom Signalprozessor bearbeitet und für eine korrekte Wiedergabe aufbereitet (zB Aufhellung durch Gammakurve) (14 Bit) (RGB)
* Feinbild läuft durch Kompressionsprozessor und wird für Kompression vorbereitet (Rauschfilter, Konvertierung nach 8 Bit, etc) (8 Bit) (YUV)
* komprimiertes Endbild wird auf Band / SD-Karte / etc. gespeichert (<8 Bit) (YUV) (reduzierte Farbauflösung 4:2:0)
Anwender möchte nun mit dem Material arbeiten und zB dunkle Bereiche weiter aufhellen -> Rauschen wird stärker sichtbar, wenig vorhandene Abstufungen in dunklen Bereichen führen zu stufig wirkenden Farbübergängen, Kompressionsartefakte werden sichtbar.
Allerdings lassen sich durch das nachträgliche Arbeiten mit höherer Bit-Tiefe (16 Bit / 32 Bit) zumindest ein wenig die Folgen abmildern.
Die EOS550D ist gegenüber der HV30 aufgrund des größeren Sensors und des damit verbundenen geringeren Rauschens im Vorteil.
Du kannst bspw. in Premiere Pro die Projekteigenschaften auf "Maximale Farbtiefe" stellen und dann lässt sich mit dem Effekt RGB-Kurven ein bisschen was in der Lichterzeichnung wieder herstellen. Oft sind die hellen Bereiche gar nicht ausgefressen, sondern liegen im "Superwhite" Bereich (alles über RGB Wert von 235) und werden nur bei der Darstellung geclippt.
Du kannst Sony Vegas Pro auf 32 Bit umstellen, allerdings wird es dann sehr zäh. Zudem arbeitet Vegas dann mit unterschiedlichen Luminanzbereichen.
Viele Infos zu Sony Vegas und dem richtigen Umgang mit Superwhite:
http://www.glennchan.info/articles/vegas…htm#superwhites
http://www.glennchan.info/articles/articles.html
Zum Einlesen bez. RAW und Farbtiefe:
http://www.cambridgeincolour.com/tutorials.htm
http://www.cambridgeincolour.com/tutorials/bit-depth.htm
http://www.cambridgeincolour.com/tutorials/posterization.htm
http://www.cambridgeincolour.com/tutorials/dynamic-range.htm
http://www.cambridgeincolour.com/tutoria…file-format.htm