Du bist nicht angemeldet.

Lieber Besucher, herzlich willkommen bei: Amateurfilm-Forum. Falls dies dein erster Besuch auf dieser Seite ist, lies bitte die Hilfe durch. Dort wird dir die Bedienung dieser Seite näher erläutert. Darüber hinaus solltest du dich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutze das Registrierungsformular, um dich zu registrieren oder informiere dich ausführlich über den Registrierungsvorgang. Falls du dich bereits zu einem früheren Zeitpunkt registriert hast, kannst du dich hier anmelden.

Broken Tape Productions

unregistriert

1

Mittwoch, 9. Mai 2012, 12:59

Begriffklärung

Hey,
seit Jahren arbeitet man ja mit einer Vielzahl von verschiedenen Fachbegriffen bezüglich Auflösung, Kodierung oder Format. Bis jetzt hatte ich immer das Gefühl damit ganz gut zurecht zu kommen und die entsprechenden Begriffe zu verstehen. Dennoch gibt es ein paar Unklarheiten, darum wollte ich einfach mal eine Reihe von Begriffen mir hier absegnen lassen, bzw. Fragen dazu klären.

- HDV: Auflösung von 1440x1080. Hier die erste Frage. Das ist doch 4:3. Wer nimmt den noch freiwillig in 4:3 auf?

- AVCHD: Aufnahmeformat, welches H.264-Codec zum komprimieren nutzt um große Datenmengen zu speichern. Dies macht es jedoch für den Schnitt unpraktisch und erfordert oft eine Umformatierung(richtig?)

- welche Formate&Codecs gibt es den in der HD-Technologie, die von einem normal rechenstarken Computer direkt eingelesen und ohne Probleme bearbeitet werden können.

- RAW-Formate: Formate, welches durch die Red One aufkam. Dieses Format bietet die Möglichkeit in der Postpro manuelle Einstellungen zu ändern, wie Blendenstufe oder Belichtungszeit, die eigentlich am Dreh final festgelegt werden.
Frage 1: Welche Möglichkeiten bietet das? Kann ich nur die Belichtung des Bildes ändern oder ist da noch mehr möglich?
Frage 2: Wie geht dies von statten? Kann ich das einfach in den gängigen Schnittprogrammen oder gibt es eine spezielle Software, die genau für das ausgelegt ist?
Frage 3: Wenn ich jetzt die Blendenzahl verringere um das Bild aufzuhellen, hat das ja normaler Weise beim echten Dreh die Folge einer geringeren Tiefenschärfe. Heißt das ich kann am Computer nochmal den Schärfeumfang des Bildes verändern? Kann ich mir irgendwie nicht vorstellen.

So das wars erstmal. :)
Vielen Dank für die Antworten.


mfg BTP

SenseLess

unregistriert

2

Mittwoch, 9. Mai 2012, 13:15

HDV ist afaik nur ein allgemeiner Oberbegriff für High Definition Video und nicht an einer bestimmten Videoauflösung festgemacht, umfasst damit unter anderem auch 720p und 1080i.

Zum Thema alternative und performantere HD-Codecs: Ich habe einige positive Dinge über Neoscene gelesen, mir bisher aber nur mal kurz die Testversion angeschaut - kann also selber nicht viel dazu sagen.

Die RAW-Daten sind halt - wie bei DSLRs auch - die direkt vom Sensor abgegriffenen Daten, bei denen in der Post noch Dinge wie Weißabgleich geändert werden können oder im Vergleich zum fertig "entwickelten" Bild/Videoformat noch ein wenig mehr Dynamikumfang rausgekitzelt werden kann. Belichtung und Blende werden bereits bei der Aufnahme festgelegt und können auch bei RAW nachträglich nicht mehr geändert werden (allenfalls lassen sich, wie geschrieben, noch ein paar mehr Details aus den sonst abgesoffenen Höhen oder Tiefen herzaubern).

joey23

Co-Administrator

Beiträge: 5 334

Dabei seit: 12. September 2009

Hilfreich-Bewertungen: 1212

  • Private Nachricht senden

3

Mittwoch, 9. Mai 2012, 13:29

Nein, HDV ist kein allgemeiner Oberbegriff. Das meint exakt diese Auflösung von 1440x1080. Allerdings ist HDV nicht 4:3, sondern 16:9. Es gibt nämlich noch einen weiteren Faktor: Das Pixelseitenverhältnis. Hättest du quadratische Pixel, wäre es 4:3, da du aber bei HDV leicht rechteckige Pixel hast, ergibt sich als fertiges Format nachher 16:9. Ich weiß grad nicht, warum man das gemacht hat, müsste ich recherchieren, eventuell um Datenrate zu spraen? HD, in welcher Form auch immer, ist aber grundsätzlich nicht 4:3.

Zu AVCHD: So ist es.

Zu der Codec-Frage: XHCam HD zB kann ich auf meinem Mac ohne weitere Konvertierung schneiden. ProRes und HDV ebenfalls. Mp4 mit H264 ist immer eine Frage der Software, FCPX zB hat damit kein Problem, und auch das neue CS6 sollte da ziemlich unkompliziert sein. Rechenleistung erfordert es aber natürlich trotzdem.

Frage 1: Du kannst im Grunde die gleichen Änderunge machen wie bei normalem HDV-Materiel oder AVCHD. Du kannst die Belichtung ändern (Helligkeit, Kontrast etc), und du kannst den Weißabgleich ändern. Du hast nur mehr Spielraum, gerade bei Weißabgleich und ISO.
Frage 2: Es gibt Schnittprogramme, die die RAW-Files direkt verarbeiten, bzw eben deren Proxis, die die Red direkt mit aufzeichnet. Andere Programme kommen damit nicht klar. In Premiere und Final Cut ist es aber kein Problem.
Frage 3: Du kannst natürlich nicht die Blendenzahl oder die Verschlusszeit verstellen. Du Verstellt wie in Photoshop oder ähnlichem einfach die Helligkeit. Auch bei RED-Material bist du da natürlich eingeschränkt. Aber du kannst zB die ISO-Zahl nachträglich verschieben. Das ist bei digitalen Kameras ja eh nur ein Fake, du tauscht ja nicht wirklich den Sensor gegen einen empfindlicheren aus. Du verschiebst nur seinen Empfindlichkeitsbereich durch elektronische trickserei. Und das geht, wenn du einfach ALLE Daten die der Sensor liefert aufzeichnest, eben auch nachträglich in gewissen Grenzen.

Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von »joey23« (9. Mai 2012, 13:39)


Es haben bereits 2 Gäste diesen Beitrag als hilfreich eingestuft.

SenseLess

unregistriert

4

Mittwoch, 9. Mai 2012, 13:47

Nein, HDV ist kein allgemeiner Oberbegriff. Das meint exakt diese Auflösung von 1440x1080.

Danke für die Richtigstellung - da habe ich offenbar die eher allgemeine "high definition video" Schublade mit dem HDV-Videoformat von Sony/JVC durcheinandergemischt. Wobei aber doch zumindest HDV1 mit einer Auflösung von 1280x720 arbeitet und sich die 1440x1080 auf HDV2 beziehen wenn ich das jetzt richtig recherchiert habe, oder?

Es hat bereits 1 registrierter Benutzer diesen Beitrag als hilfreich eingestuft.

Benutzer, die diesen Beitrag hilfreich fanden:

joey23

joey23

Co-Administrator

Beiträge: 5 334

Dabei seit: 12. September 2009

Hilfreich-Bewertungen: 1212

  • Private Nachricht senden

5

Mittwoch, 9. Mai 2012, 14:06

Da hast du Recht. HDV1 vergesse ich immer .. :D

Es gibt diese beiden Varianten:
HDV1 720p: 1280 × 720 Pixel mit den Frameraten 25p oder 50p in PAL-Ländern (30p oder 60p in NTSC-Ländern) sowie optional 24p
HDV2 1080i: 1440 × 1080 Pixel mit den Frameraten 25p(sf) oder 25i in PAL-Ländern (oder 30p(sf) oder 30i in NTSC-Ländern)

In der Praxis hat HDV1 für mich nie eine Rolle gespielt, ich hatte auch nie eine Kamera die das gekonnt hätte.

Es hat bereits 1 Gast diesen Beitrag als hilfreich eingestuft.

Fischfilet

Registrierter Benutzer

Beiträge: 468

Dabei seit: 4. April 2011

Wohnort: Frankfurt/Main

Frühere Benutzernamen: Fischfilet

Hilfreich-Bewertungen: 60

  • Private Nachricht senden

6

Mittwoch, 9. Mai 2012, 14:36

Da hast du Recht. HDV1 vergesse ich immer .. :D

Es gibt diese beiden Varianten:
HDV1 720p: 1280 × 720 Pixel mit den Frameraten 25p oder 50p in PAL-Ländern (30p oder 60p in NTSC-Ländern) sowie optional 24p
HDV2 1080i: 1440 × 1080 Pixel mit den Frameraten 25p(sf) oder 25i in PAL-Ländern (oder 30p(sf) oder 30i in NTSC-Ländern)

In der Praxis hat HDV1 für mich nie eine Rolle gespielt, ich hatte auch nie eine Kamera die das gekonnt hätte.
geh ich richtig in der annahme, das man dann be 720p von HD und bei 1080i von Full-HD spricht ?

rick

Registrierter Benutzer

  • »rick« ist männlich

Beiträge: 2 507

Dabei seit: 3. November 2010

Wohnort: Hannover

Frühere Benutzernamen: rick1000

Hilfreich-Bewertungen: 614

  • Private Nachricht senden

7

Mittwoch, 9. Mai 2012, 14:46

geh ich richtig in der annahme, das man dann be 720p von HD und bei 1080i von Full-HD spricht ?

Eigentlich spricht man nur bei 1920x1080p von Full-HD. 1440x1080i (also HDV2) wird aber auf einem FullHD Fernseher als 1080p FullHD (1920x1080) dargestellt allerdings ist die Auflösung um 25% geringer. Die um 25% gestauchten Pixel (siehe Joeys Erklärung) werden einfach in die Breite gezogen woraus die quadratischen Pixel für das FullHD 1080p Format entstehen. Über die exakte Definiton von FullHD kann freezer bestimmt genaueres sagen.

Es hat bereits 1 registrierter Benutzer diesen Beitrag als hilfreich eingestuft.

Benutzer, die diesen Beitrag hilfreich fanden:

Beaverlicious

joey23

Co-Administrator

Beiträge: 5 334

Dabei seit: 12. September 2009

Hilfreich-Bewertungen: 1212

  • Private Nachricht senden

8

Mittwoch, 9. Mai 2012, 14:56

geh ich richtig in der annahme, das man dann be 720p von HD und bei 1080i von Full-HD spricht ?


FullHD sagt nur etwas über die Pixelauflösung, nicht über die Bildfrequenz. Wenn das zum Beispiel bei einem Fernseher steht, bedeutet es, dass dieser 1920x1080 Pixel Auflösung hat. Ob er dann 24,25 oder 30 Bilder wiedergibt / wiedergeben kann ist noch mal eine zweite Frage.

HD ready, vor der Schwemme der FullHD-TV-Geräte viel beworben, ist mit mindestens 720 Pixeln vertikaler Auflösung und noch einer Reihe anderer Vorgaben festgesetzt.

Es hat bereits 1 registrierter Benutzer diesen Beitrag als hilfreich eingestuft.

Benutzer, die diesen Beitrag hilfreich fanden:

Beaverlicious

Fischfilet

Registrierter Benutzer

Beiträge: 468

Dabei seit: 4. April 2011

Wohnort: Frankfurt/Main

Frühere Benutzernamen: Fischfilet

Hilfreich-Bewertungen: 60

  • Private Nachricht senden

9

Mittwoch, 9. Mai 2012, 15:04

wo wir grade von bildfrequenzen reden, drängt sich mir eine andere frage auf.

ist es nicht potentiell sinnvoll, in möglichst hohen fps-raten zu arbeiten, selbst wenn das auge irgw keinen unterschied mehr wahrnimmt? warum wird dann so häufig bei kinofilmen mit 24fps aufgenommen und im fernsehen mit 25fps ? steht das nicht im widerspruch dazu, dass kinofilme qualitativ hochwertiger sein müssten?

LG und sorry für meine unwissenheit^^

rick

Registrierter Benutzer

  • »rick« ist männlich

Beiträge: 2 507

Dabei seit: 3. November 2010

Wohnort: Hannover

Frühere Benutzernamen: rick1000

Hilfreich-Bewertungen: 614

  • Private Nachricht senden

10

Mittwoch, 9. Mai 2012, 15:15

warum wird dann so häufig bei kinofilmen mit 24fps aufgenommen

Weil man vor Jahrzehnten damit angefangen hat. Ein uralter Standart, sowie pal Fernsehn mit 50 Halbbildern. Technische bzw. kostentechnische Einschränkungen der damaligen Zeit sind der Grund. Filmen konnte und kann man auch mit 48fps dann kostet das Rohmaterial das Doppelte und nicht jeder Projektor im Kino ist/war auch in der Lage 48fps abzuspielen. Bei Zeitlupen nimmt man übrigens auch auf Rollfilm mit hohen Bildraten auf.

Fischfilet

Registrierter Benutzer

Beiträge: 468

Dabei seit: 4. April 2011

Wohnort: Frankfurt/Main

Frühere Benutzernamen: Fischfilet

Hilfreich-Bewertungen: 60

  • Private Nachricht senden

11

Mittwoch, 9. Mai 2012, 15:20

das klingt einleuchtend! danke schön für die info!:)

joey23

Co-Administrator

Beiträge: 5 334

Dabei seit: 12. September 2009

Hilfreich-Bewertungen: 1212

  • Private Nachricht senden

12

Mittwoch, 9. Mai 2012, 15:21

24 Bilder war der Kompromiss aus "ruckelt nicht" und "Filmverschwendung", in einer Zeit in der noch alles Analog war.

25p und 50i (Pal-System) basieren auf unserem Stromnetz, das mit 50 Hertz arbeitet. In den USA arbeitet es mit 60 Herzt, weswegen es dort eben 30p und 60i im NTSC-System gibt. Das ist jeweils im Grunde 50 Jahre alte technik, diese Bildraten haben sich eben bis jetzt gehalten. Es war eben das am dichtesten Verfügbare zum 24-Bilder-System aus dem Kino.

Aktuell wird der Hobbit in 48fps gefilmt, und nach dem ersten Screening gab es recht kontroverse Diskussionen, ob 48fps nun überhaupt besser sind, da wir die 24 Bilder aus dem Kino einfach so gewohnt sind.

<<<ThE SpEZi>>>

Registrierter Benutzer

Beiträge: 118

Hilfreich-Bewertungen: 3

  • Private Nachricht senden

13

Mittwoch, 9. Mai 2012, 18:26

25p und 50i (Pal-System) basieren auf unserem Stromnetz, das mit 50 Hertz arbeitet. In den USA arbeitet es mit 60 Herzt, weswegen es dort eben 30p und 60i im NTSC-System gibt. Das ist jeweils im Grunde 50 Jahre alte technik, diese Bildraten haben sich eben bis jetzt gehalten. Es war eben das am dichtesten Verfügbare zum 24-Bilder-System aus dem Kino.
Die USA haben schon lange auf HDTV umgestellt und in Europa passiert das gerade. Das bedeutet PAL, NTSC und vor allem SECAM werden uninteressant. Daher würde ich diese Fernsehnorm vorziehen, die auch super mit MPEG-4 harmoniert.

joey23

Co-Administrator

Beiträge: 5 334

Dabei seit: 12. September 2009

Hilfreich-Bewertungen: 1212

  • Private Nachricht senden

14

Mittwoch, 9. Mai 2012, 18:55

Ändert aber nichts an 25p und 30p, so gerne ich das hätte. Demnächst hat Lidl eine wasserdichte Kamera für unter 200€, macht aber leider nur 30p und vermutlich 60p. Solange ich das zu YouTube lade ists egal, sobald ich damit ins TV will oder es mit 25P Material mischen will könnt ich kotzen.

Bati Stein

unregistriert

15

Mittwoch, 9. Mai 2012, 19:47

Schuldigung das ich mich auch mal einmische. ich hätt aber noch mal eine frage zu dem Full HD. :S Was ist der unterschied von 1080 p im vergleich zu 1080i und mit welchem codec bekommt man einen 1080i film am besten exportiert wenn man keine interlaced streifen haben will. Wenn ich den film nämlich aus fce exportiere bekommt dieser in full HD 1080p immer diese streifen. Erst wenn ich es in HDV 1 720p exportiere ist das bild ohne streifen (ich nutze dabei apple TV als export einstellung) . Weiß jemand wie man das beheben kann?? :S
LG Bati Stein

joey23

Co-Administrator

Beiträge: 5 334

Dabei seit: 12. September 2009

Hilfreich-Bewertungen: 1212

  • Private Nachricht senden

16

Mittwoch, 9. Mai 2012, 19:49

Ließ dir mal bei Wikipedia die Artikel zu Interlaced und Progressiv durch und verstehe was der Unterschied ist! Dann beantworten sich viele deiner Fragen. Du musst das Material korrekt deinterlacen. Der Codec ist da nebensächlich.

Filmstammtisch

Registrierter Benutzer

  • »Filmstammtisch« ist männlich

Beiträge: 98

Dabei seit: 31. März 2012

Wohnort: Wien

Hilfreich-Bewertungen: 24

  • Private Nachricht senden

17

Donnerstag, 10. Mai 2012, 00:28

wo wir grade von bildfrequenzen reden, drängt sich mir eine andere frage auf.

ist es nicht potentiell sinnvoll, in möglichst hohen fps-raten zu arbeiten, selbst wenn das auge irgw keinen unterschied mehr wahrnimmt? warum wird dann so häufig bei kinofilmen mit 24fps aufgenommen und im fernsehen mit 25fps ? steht das nicht im widerspruch dazu, dass kinofilme qualitativ hochwertiger sein müssten?

LG und sorry für meine unwissenheit^^


Nun es gab durchaus Bemühungen das zu ändern, eine davon war eine Entwicklung in Amerika die sich Showscan nannte, die sich aber nicht wirklich durchsetzen konnte.
Ein Video dazu:


<<<ThE SpEZi>>>

Registrierter Benutzer

Beiträge: 118

Hilfreich-Bewertungen: 3

  • Private Nachricht senden

18

Donnerstag, 10. Mai 2012, 16:37

Was ist der unterschied von 1080 p im vergleich zu 1080i
Das i steht für interlaced und das bedeutet, dass Halbbilder gemeint sind und nicht Vollbilder. Und da kann man noch mal den Unterschied betonen: FullHD -> 1080p

joey23

Co-Administrator

Beiträge: 5 334

Dabei seit: 12. September 2009

Hilfreich-Bewertungen: 1212

  • Private Nachricht senden

19

Freitag, 11. Mai 2012, 10:38

Das stimmt nur halb! In den Spezifikationen zu FullHD 1080p steht auch, dass das Gerät Interlaced-Material annehmen können muss.

Um die Unterschiede zwischen HD ready und Full HD Auflösung besser zu verstehen, ist es ganz hilfreich die jeweiligen Anforderungen der EICTA im Detail zu betrachten.

Zitat

Anforderungen für das Label “HD ready“:

Analoger YPbPr HD Eingang
Digitaler HDMI oder DVI HD Eingang
Anzeige von 720p HD progressive (Vollbilder von 1.280 x 720 Pixel Auflösung bei 50 und 60 Hertz)
Anzeige von 1080i HD (Halbbilder von 1.920 x 1.080 Pixel Auflösung bei 50 und 60 Hertz)
Unterstützung der Kopierschutzvariante HDCP bei allen HDMI oder DVI Eingängen

Zusätzliche Anforderungen für das Label “HD ready 1080p“:

Alle Videoformate werden verzerrungsfrei dargestellt
Anzeige von 1080p und 1080i ohne Overscan, also eine 1:1-Abbildung aller Pixel
Anzeige aller Videoformate bei gleicher oder höherer Wiederholrate
Anzeige von 1080p HD (Vollbilder von 1.920 x 1.080 Pixel Auflösung bei 24, 50 oder 60 Hertz)



Quelle: http://www.tvfacts.de/artikel/495-unters…aufloesung.html

Es hat bereits 1 Gast diesen Beitrag als hilfreich eingestuft.

Ähnliche Themen

Social Bookmarks