Lowlight = die Fähigkeit einer Kamera bei geringem Licht mit wenig Rauschen aufzunehmen. Rauschen ensteht durch elektronische Aufhellung des Bildes auf dem Sensor. Beim Film ist es der
Gain = meist ein Wert von 0db - +15db Verstärkung. Werte kleiner 0 werden als Werte für die Blende angezeigt bsp. f1.8 - Beim Fotografieren heißt der Wert ISO (ISO 100 = Gain 0db ISO200 = +3db Gain ISO 400= +6db Gain usw...)
Blende = die Größe der Öffnung des Objektives. Je größer die Öffnung (als kleiner Wert z.B. F1.4/1.8 dargestellt) umso mehr Licht fällt auf den Sensor. Je kleiner die Blende (größer "F-Wert" z.B. 8) umso schärfer wird das Bild an kontrastreichen Kanten. Zusätzlich änder die Blende die Schärfentiefe. näheres zu Blende/Belichtungszeit/ISO
hier
Brennweite = Der Abstand von Abbildungsebene des Objektives zum Sensor (ähnlich wie der Absatnd des Fotografen zum Motiv) in mm. Je kleiner die Brennweite umso größer ist der Sichtbare Bildausschnitt. Umgeekehrt führt die Verlängerung der Brennweite (Zoom) zur Vergrößerung eines Motivs. Beim Film (35mm Format), gilt eine Brennweite von 50mm als die dem menschlichen Sehen am nächsten kommende Brennweite. kleine Brennweiten werden als Weitwinkel bezeichnet und führen zu Tonnenförmigen Verzerrungen je kleiner sie werden (nicht so schön bei Portraits). Wird die Verzerrung Kreisförmig, spricht man von Fisheye (je nach Objektiv ab ca. 14-12mm kleiner werdend). Der Bereich über 50mm ist der Telebereich, der mit ansteigender Brennweite Kissenförmigeverzerrungen abbildet (macht schlank). Der Zoomfaktor eines Objektives berechnet sich aus größte Brennweite geteilt durch kleinste Brennweite. Bsp. 18-55mm = 3x Zoom.
Fokus = Durch verschieben der Linsen im Objektiv (ähnlich wie bei Änderungen der Brennweite), kann auf ein Objekt sachrf gestellt werden. Die Schärfe liegt dann auf einer Parallel zum Objektiv laufenden ebene (Schärfen/Fokusebene). Fokusverlagerungen (das weiche drehen von Unscharf auf Scharf oder umgekehrt), wird im Film häufug als Stilistischemittel eingesetzt, um die Aufmerksamkeit des Zuschauers auf bestimmte otive zu richten (oder sie zu verstecken).
Schärfentiefe = Der Bereich der vor und hinter einem fokusierten Objekt für das menschliche Auge noch als scharf abgebildet wird. Je weiter die Blende geöffnet ist, umso geringer die Schärfentiefe (Film-look)
Belichtungszeit/Shutter = Die Dauer für die, der Verschluß geöffnet ist bzw. beim Filmen die Zeitintervalle pro Sekunde in welchen das Bild vom Sensor geholt wird. Je länger die Belichtungszeit (z.B. 1/25s) umso mehr Licht kann auf den Sensor fallen -> das Bild wird heller. Beim Filmen werden die Bewegungen unschärfer. Kurze Belichtungszeiten (z.b. 1/500s), bewirken das genaue Gegenteil. Die Belichtungszeit ist beim Einsatz von Tageslichtlampen oder Leuchtstoffröhren auf Grund der F50hz Frequenz des europäischen Stromnetzes, bei Innendrehs häufig auf 1/50,1/100,1/200 etc. eingeschränkt, da es sonst zu Flimmern kommt. Beim Filmen wendet man fast immer die...
180° Shutterregel an. Der Begriff stammt vom analogen Film, bei dem eine rotierende Scheibe jeweils nach 180 Grad Drehung den Verschluß öffnet. Die Shuttergeschwindigkeit entspricht dem doppelten der Bildwiederholrate in zehntel Sekunden. Bei 25 Bildern pro Sekunde (fps) wäre die Belichtungszeit 1/50s. Man weicht von dieser Regel nach Unten (1/100 oder kürzer) z.B. ab, um abgehakte Bewegungen oder detailiertere Bewegungsabläuf zu bekommen (bsp. Sport, Zeitlupe, Dokustil). Nach Oben (also länger z.B. 1/25s) führt zu weichen aber in der Bewegung unscharfen Bildern (z.B. Traumszenen oder fließendes Wasser wird zu einer Masse und sieht aus wie Mehl, oder einfach um mehr Licht zu haben).
Bildwiederholrate = Bilder pro Sekunde (Frames per Second = fps). Klassischer Film wird bei 24fps aufgenommen. Videomaterial in Europa mit 25fps (pal), oder in USA und Japan mit 30fps (ntsc). Seit dem HD Zeitalter können alle modernen Fernseher sowohl 25/30/50/60 fps wiedergeben. TFT-Monitore stellen 30/60fps flüssiger dar (da die Bildwiederholfrequenz dort bei 60hz liegt. Je höher die Bildwiederholrate umso flüssiger werden Bewegungen dargestellt. Schwenks können schneller durchgeführt werden ohne das es zu Bildrucklern kommt. Höhere fps ermöglichen geschmeidigere Zeitlupen, da mehr Informationen pro Sekunde aufgenommen werde. Gleichzeitig steigen die Anforderungen an die Hardware um die größere Datenmenge bearbeiten zu können. Unterschieden wird noch in progresive Voll-Bilder und interlaced Halb-bilder). Beispiele 25p oder 50i, können nach der Bearbeitung wieder wahlweise als 50i oder 25p ausgegeben werden. 50p kann wahlweise auch als 25p oder 50i auf zwei Sekunden ausgegeben werden (siehe Zeitlupe) oder durch weglassen jedes zweiten Bildes wieder als 25p oder 50i. Interlaced Material erkennt man häufig an zackigen Linien, die bei der Betrachtung auf progressiven Geräten (z.B. Monitor) entstehen, wenn die Abspielsoftware die Halbbilder nicht durch deinterlacing richtig mit einander verpflechtet. Diese Störungen wären auf Röhrengeräten nicht sichtbar.
Sensorgröße = Entspricht im Analogenbereich der Größe des Filmmaterials. Je größer der Sensor umso Lichtempfindlicher ist er, was bei wenig Licht zu weniger Rauschen führt. Gleichzeitig verringert sich die Schärfentiefe (s. oben) mit anwachsen der Sensorgröße (etwa um eine Blendenstufe pro Verdopplung der Sensorfläche). Eine Consumer Videokamera hat einen recht kleinen Sensor im Vergleich dazu hat eine Spiegelreflexkamera einen 20-30 Mal größeren Sensor. Bei Videokameras zwischen 1/4 - 2/3 Zoll (diagonale des Sensors, 1 Zoll = 2,54cm ) bei Spiegelreflexkameras als Voll(Kleinbild)-Format z.B. Canon 5D, als Crop 1.6 z.B. 7D/550D (im Verhältniss um 50% kleinere Sensorfläche als Voll-Format) oder als Crop 2.0 z.B. Panasonic GH2. 35mm Foto (also Kleinbildformat) ist größer von der Fläche als 35mm Filmformat. Die Bilddiagonale beträgt jeweils 35mm allerdings wird das Filmformat quer und das Fotoformat hochkant auf dem Film belichtet, was beim Filmformat zu Einzelbildern mit kleinerer Fläche führt.
Codec AVCHD = ein Codec zum Komprimieren von Videomaterial. In Consumer Kameras meist zwischen 17-24 Mbit/s (8Mbit = 1Mb).
Codec h.264 = ähnlicher Codec mit ca. 30-50 Mbit/s. Komprimiert weniger effizent als AVCHD, ist dafür in der Nachbearbeitung flüssiger zu handhaben.
Container = Codecs wie AVCHD, h.264 etc. werden in für Software in lesbare Container Formate gepackt wie z.B. .avi,.mp4,.mpeg2,.mov,.mts ... Der Container sagt der Software wie der Codec abzuspielen ist (z.B. die Abstände zwischen zwei vollständigen Einzelbildern aus denen Bilder dazwischen und die Veränderung darin berechnet wird).
Komprimierung = Beruht zum Einen auf der Basis von jpeg, aneinadergrenzende Pixel mit sehr ähnliche Farbbereichen werden zu größeren Blöcken einer durchschnitts Farbe zusammengefaßt. Zum Anderen wird nicht 25 Mal pro Sekunde ein komplettes Bild aufgenommen sondern nur wenige Bilder (Full Keyframes) enthalten sämtliche Informationen. Die Bilder dazwischen enthalten nur die Veränderungen von Blöcken zum vorherigen Bild.
Daraus folgt, das sich ruhige Szenen mit wenigen Farben oder Kontrasten besser komprimieren lassen, als schnelle Szenen mit hohem Dynamikumfang (siehe auch Konvertierung). Weitere Einsparungen finden durch eine reduktion der Farbkanäle statt, was zu einem künstlich verkleinerten Dynamikumfang führt (bsp. 4.4.2/4.4.0/4.2.0). Hochwertige Codecs wie z.B. apple-prores stellen einen guten Kompromiss zwischen Qualität und Dateigröße (z.B. für die Archivierung und/oder Berabeitung) dar. Sie sind aber häufig kostenpflichtig.
Dynamikumfang = gibt an wie exakt die Kamera das komplette Helligkeitsspektrum differenzieren kann. Gute Kamera können den Bereich von Schwarz-Weiß über ca. 12 Blendenstufen abbilden. Günstigere Kameras schaffen zwischen 6-10 Blendenstufen. In der Praxis äußert es sich so, daß ein geringer Dynamikumfang das Leuchten einer Glühbirne nicht mehr in viele einzelne hellgraue Tonwerte aufschlüsseln kann, sondern sehr schnell einen weißen "Fleck" abbildet (Überbelichtung). Umgekehrt gilt das gleiche für schwarz. Hoher Dynamikumfang bedeutet, daß man selbst auf einem Schwarzen Stoff noch einzelne Maschen erkenne kann, die bei geringem Dynamikumfang im schwarz "absaufen" (also nicht mehr als sehr dunkles Grau erkannt werden).
Konvertierung = Formatumwandlung, meist um original material auf ein kleiners abspielbares Format zu bringen oder umgekehrt als unkomprimiertes Material für die Nachbearbeitung in best möglicher Qualität zu erhalten. Gängige Parameter sind die Anzahl von Durchgängen in denen das Material auf Bildveränderungen durchlaufen wird, um den best Möglichen Kompromiß zwischen Dateigröße und Bildqualität bei stark komprimierenden Codecs zu erhalten. Bsp. 1pass/2pass/Multipass encoding. Das gänigste unkomprimierte Format wären Einzelbilder (bmp,tiff) entweder als einzelne Dateien gespeichert oder komfortabler als Videodatei im .avi Format abgelegt. Es gibt auch verlustfreie komprimierte Formate wie (png) oder .avi compressed. Hier werden z.B. bei der Kompresion, die einzelnen Pixel gleicher Farbe gezählt und für nebeneinanderliegende Pixel nur einmal der Wert der Farbe plus der Anzahl der Wiederholungen gespeichert (wie ein Raster auf dem nur die Anzahl gleichfarbiger Flächen notiert wird). .Naturgemäß ist die Platzeinsparung bei diesen Formaten deutlich geringer als bei verlustbehafteteten Kompressionsformaten. Führt also zu größere Dateien. Einsparung zu uncompressed ca. 20-30%.
Vielleicht beantwortet das schon einiger Deiner Fragen. Kann gerne durch weitere Begriffe ergänzt werden.