Du bist nicht angemeldet.

Lieber Besucher, herzlich willkommen bei: Amateurfilm-Forum. Falls dies dein erster Besuch auf dieser Seite ist, lies bitte die Hilfe durch. Dort wird dir die Bedienung dieser Seite näher erläutert. Darüber hinaus solltest du dich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutze das Registrierungsformular, um dich zu registrieren oder informiere dich ausführlich über den Registrierungsvorgang. Falls du dich bereits zu einem früheren Zeitpunkt registriert hast, kannst du dich hier anmelden.

1

Montag, 27. Februar 2012, 11:05

Konviertierung - HILFE

Hallo Zusammen

Ich habe grundlegend eine Frage zu den verschiedenen KOnvertierungen.

Zuerst was ich alles benutze.

Macbook PRo 13 LION
Adobe After Effects
iMovie
MacConverter

Ich fange mal an:

Bei der Canon 60D sind ja die Videoformate .mov und bei der Panasonic TM60 die ich habe ist das Format .MTS
Da ich auf einem Mac arbeite ist es mir wichtig dass ich bei einer Konvertierung keine Auflösung verliere.
Wenn ich jedoch ein Video bearbeite oder Konvertiere jedoch bei After Effects z.B Keine Konvertierung nehme ist die Datei dann meisten grösser als vorhin.

Wie kann das sein? Eine Datei die 20sekunden dauert ist dann 1.2GB und nicht mehr 400MB?

Da ich auf eine Sony HDR-AX2000 spare wird diese auch keine .mov Dateien ausgeben.
Wie kann ich diese Dateien als .MOV oder anderes Format für Mac so konvertieren dass die Datei nicht gleich 3X grösser wird aber jedoch auch NICHT konvertiert wird, bzw. 100% verlustfrei?

Das END Video wird dann sowiso h264 konvertiert, aussert es gibt was besseres. Aber ich will in den zwischentschritten keine QUalität verlieren.

Vielen Dank im Voraus

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »gree« (29. Februar 2012, 14:17) aus folgendem Grund: Keine ANtwort


Sketch

Compositing Artist

  • »Sketch« ist männlich

Beiträge: 692

Dabei seit: 20. April 2006

Wohnort: Düsseldorf

Hilfreich-Bewertungen: 12

  • Private Nachricht senden

2

Mittwoch, 29. Februar 2012, 20:24

Die MOVs, die aus deiner 60D kommen sind H.264s in 'nem MOV Container, deshalb werden die natürlich größer, wenn du sie uncompressed rausgibst. ;)

Workflow wäre also z.B:
- Footage für Offline Schnitt in Pro Res wandeln, am besten noch 'nen Timecode generieren und mit reinschreiben.
- Footage für Online in Bildsequenz (z.B. dpx, sgi, tga etc.) wandeln (nicht komplett, nur die Takes, die im Schnitt verwendet werden + Handles, sonst braucht das ganze furchtbar viel Platz...), ebenfalls Timecode mit reinschneiden
- Mittels einer EDL aus'm Schnitt die Online conformen, nach Belieben Farbkorrektur, Effekte etc...
- Am Ende uncompressed rausgeben und dann je nach Verwendungszweck wandeln
"Viele Menschen sind zu gut erzogen, um mit vollem Mund zu sprechen, aber sie haben keine Bedenken dies mit leerem Kopf zu tun."

3

Donnerstag, 1. März 2012, 11:34

VIelen Dank für deine Antwort.
Ganz ehrlich gesagt, ich verstehe eigendlich fast nicht was du meinst.. :(

Was mir halt wichtig ist:

  1. Wie kann ich die .MTS Dateien Verlustfrei Konvertieren in .MOV oder eine andere Mac Kompatible Datei?
  2. Wenn ich eine Datei in After Effects ausgebe, ist die h264 konvertierung gleich gut wie Konvertierungsprogramme?
  3. Wenn ich einen Film in iMovie zusammenschneide, soll ich h264 konvertierung nehmen oder ohne Konvertierung ausgeben und im Nachhinein konvertieren?
  4. Welches Programm (kostenlos von Vorteil, darf aber auch kosten!) ist wirklich super für die Konvertierung von Dateien?


ICh wäre sehr froh um eine Antwort =)

joey23

Co-Administrator

Beiträge: 5 160

Dabei seit: 12. September 2009

Hilfreich-Bewertungen: 1175

  • Private Nachricht senden

4

Donnerstag, 1. März 2012, 11:43

Sinnvoller Zwischencodec auf einem Mac wäre zB ProRes. Eine MTS oder H264-Datei wird aber bim Konvertieren in einen schnittfreundlichen Codec IMMER größer werden.

Mir ist nicht ganz klar, was du überhaupt machen willst.

Grundsätzlich: MOV ist lediglich ein Container, ähnlich einer ZIP-Datei, in der ganz unterschiedliche Formate stecken können.

Mein persönlicher Lieblingskonverter auf dem Mac ist immernoch Quicktime Pro 7. Alternativ gehen zB auch MPEG Streamclip oder FFMPEGX.

Es hat bereits 1 Gast diesen Beitrag als hilfreich eingestuft.

5

Freitag, 2. März 2012, 09:54

Vielen Dank!

Eine kurze Frage..

Gibt es einen Thread hier im Forum indem alle wichtigen Begriffe erklärt werden?

Also Lowlight, Sensorgrösse, AVCHD, Komprimierungsarten, Videodateien, Kamrafunktionen etc..
Sozusagen eine Erklärung für alle Technischen Begriffe einer Kamera?

Das fände ich sehr Sinnvoll da ich durch das auch viel mehr verstehen würde. =)

rick

Registrierter Benutzer

  • »rick« ist männlich

Beiträge: 2 481

Dabei seit: 3. November 2010

Wohnort: Hannover

Frühere Benutzernamen: rick1000

Hilfreich-Bewertungen: 608

  • Private Nachricht senden

6

Freitag, 2. März 2012, 11:01

Lowlight = die Fähigkeit einer Kamera bei geringem Licht mit wenig Rauschen aufzunehmen. Rauschen ensteht durch elektronische Aufhellung des Bildes auf dem Sensor. Beim Film ist es der

Gain = meist ein Wert von 0db - +15db Verstärkung. Werte kleiner 0 werden als Werte für die Blende angezeigt bsp. f1.8 - Beim Fotografieren heißt der Wert ISO (ISO 100 = Gain 0db ISO200 = +3db Gain ISO 400= +6db Gain usw...)

Blende = die Größe der Öffnung des Objektives. Je größer die Öffnung (als kleiner Wert z.B. F1.4/1.8 dargestellt) umso mehr Licht fällt auf den Sensor. Je kleiner die Blende (größer "F-Wert" z.B. 8) umso schärfer wird das Bild an kontrastreichen Kanten. Zusätzlich änder die Blende die Schärfentiefe. näheres zu Blende/Belichtungszeit/ISO hier

Brennweite = Der Abstand von Abbildungsebene des Objektives zum Sensor (ähnlich wie der Absatnd des Fotografen zum Motiv) in mm. Je kleiner die Brennweite umso größer ist der Sichtbare Bildausschnitt. Umgeekehrt führt die Verlängerung der Brennweite (Zoom) zur Vergrößerung eines Motivs. Beim Film (35mm Format), gilt eine Brennweite von 50mm als die dem menschlichen Sehen am nächsten kommende Brennweite. kleine Brennweiten werden als Weitwinkel bezeichnet und führen zu Tonnenförmigen Verzerrungen je kleiner sie werden (nicht so schön bei Portraits). Wird die Verzerrung Kreisförmig, spricht man von Fisheye (je nach Objektiv ab ca. 14-12mm kleiner werdend). Der Bereich über 50mm ist der Telebereich, der mit ansteigender Brennweite Kissenförmigeverzerrungen abbildet (macht schlank). Der Zoomfaktor eines Objektives berechnet sich aus größte Brennweite geteilt durch kleinste Brennweite. Bsp. 18-55mm = 3x Zoom.

Fokus = Durch verschieben der Linsen im Objektiv (ähnlich wie bei Änderungen der Brennweite), kann auf ein Objekt sachrf gestellt werden. Die Schärfe liegt dann auf einer Parallel zum Objektiv laufenden ebene (Schärfen/Fokusebene). Fokusverlagerungen (das weiche drehen von Unscharf auf Scharf oder umgekehrt), wird im Film häufug als Stilistischemittel eingesetzt, um die Aufmerksamkeit des Zuschauers auf bestimmte otive zu richten (oder sie zu verstecken).

Schärfentiefe = Der Bereich der vor und hinter einem fokusierten Objekt für das menschliche Auge noch als scharf abgebildet wird. Je weiter die Blende geöffnet ist, umso geringer die Schärfentiefe (Film-look)

Belichtungszeit/Shutter = Die Dauer für die, der Verschluß geöffnet ist bzw. beim Filmen die Zeitintervalle pro Sekunde in welchen das Bild vom Sensor geholt wird. Je länger die Belichtungszeit (z.B. 1/25s) umso mehr Licht kann auf den Sensor fallen -> das Bild wird heller. Beim Filmen werden die Bewegungen unschärfer. Kurze Belichtungszeiten (z.b. 1/500s), bewirken das genaue Gegenteil. Die Belichtungszeit ist beim Einsatz von Tageslichtlampen oder Leuchtstoffröhren auf Grund der F50hz Frequenz des europäischen Stromnetzes, bei Innendrehs häufig auf 1/50,1/100,1/200 etc. eingeschränkt, da es sonst zu Flimmern kommt. Beim Filmen wendet man fast immer die...

180° Shutterregel an. Der Begriff stammt vom analogen Film, bei dem eine rotierende Scheibe jeweils nach 180 Grad Drehung den Verschluß öffnet. Die Shuttergeschwindigkeit entspricht dem doppelten der Bildwiederholrate in zehntel Sekunden. Bei 25 Bildern pro Sekunde (fps) wäre die Belichtungszeit 1/50s. Man weicht von dieser Regel nach Unten (1/100 oder kürzer) z.B. ab, um abgehakte Bewegungen oder detailiertere Bewegungsabläuf zu bekommen (bsp. Sport, Zeitlupe, Dokustil). Nach Oben (also länger z.B. 1/25s) führt zu weichen aber in der Bewegung unscharfen Bildern (z.B. Traumszenen oder fließendes Wasser wird zu einer Masse und sieht aus wie Mehl, oder einfach um mehr Licht zu haben).

Bildwiederholrate = Bilder pro Sekunde (Frames per Second = fps). Klassischer Film wird bei 24fps aufgenommen. Videomaterial in Europa mit 25fps (pal), oder in USA und Japan mit 30fps (ntsc). Seit dem HD Zeitalter können alle modernen Fernseher sowohl 25/30/50/60 fps wiedergeben. TFT-Monitore stellen 30/60fps flüssiger dar (da die Bildwiederholfrequenz dort bei 60hz liegt. Je höher die Bildwiederholrate umso flüssiger werden Bewegungen dargestellt. Schwenks können schneller durchgeführt werden ohne das es zu Bildrucklern kommt. Höhere fps ermöglichen geschmeidigere Zeitlupen, da mehr Informationen pro Sekunde aufgenommen werde. Gleichzeitig steigen die Anforderungen an die Hardware um die größere Datenmenge bearbeiten zu können. Unterschieden wird noch in progresive Voll-Bilder und interlaced Halb-bilder). Beispiele 25p oder 50i, können nach der Bearbeitung wieder wahlweise als 50i oder 25p ausgegeben werden. 50p kann wahlweise auch als 25p oder 50i auf zwei Sekunden ausgegeben werden (siehe Zeitlupe) oder durch weglassen jedes zweiten Bildes wieder als 25p oder 50i. Interlaced Material erkennt man häufig an zackigen Linien, die bei der Betrachtung auf progressiven Geräten (z.B. Monitor) entstehen, wenn die Abspielsoftware die Halbbilder nicht durch deinterlacing richtig mit einander verpflechtet. Diese Störungen wären auf Röhrengeräten nicht sichtbar.

Sensorgröße = Entspricht im Analogenbereich der Größe des Filmmaterials. Je größer der Sensor umso Lichtempfindlicher ist er, was bei wenig Licht zu weniger Rauschen führt. Gleichzeitig verringert sich die Schärfentiefe (s. oben) mit anwachsen der Sensorgröße (etwa um eine Blendenstufe pro Verdopplung der Sensorfläche). Eine Consumer Videokamera hat einen recht kleinen Sensor im Vergleich dazu hat eine Spiegelreflexkamera einen 20-30 Mal größeren Sensor. Bei Videokameras zwischen 1/4 - 2/3 Zoll (diagonale des Sensors, 1 Zoll = 2,54cm ) bei Spiegelreflexkameras als Voll(Kleinbild)-Format z.B. Canon 5D, als Crop 1.6 z.B. 7D/550D (im Verhältniss um 50% kleinere Sensorfläche als Voll-Format) oder als Crop 2.0 z.B. Panasonic GH2. 35mm Foto (also Kleinbildformat) ist größer von der Fläche als 35mm Filmformat. Die Bilddiagonale beträgt jeweils 35mm allerdings wird das Filmformat quer und das Fotoformat hochkant auf dem Film belichtet, was beim Filmformat zu Einzelbildern mit kleinerer Fläche führt.

Codec AVCHD = ein Codec zum Komprimieren von Videomaterial. In Consumer Kameras meist zwischen 17-24 Mbit/s (8Mbit = 1Mb).
Codec h.264 = ähnlicher Codec mit ca. 30-50 Mbit/s. Komprimiert weniger effizent als AVCHD, ist dafür in der Nachbearbeitung flüssiger zu handhaben.

Container = Codecs wie AVCHD, h.264 etc. werden in für Software in lesbare Container Formate gepackt wie z.B. .avi,.mp4,.mpeg2,.mov,.mts ... Der Container sagt der Software wie der Codec abzuspielen ist (z.B. die Abstände zwischen zwei vollständigen Einzelbildern aus denen Bilder dazwischen und die Veränderung darin berechnet wird).

Komprimierung = Beruht zum Einen auf der Basis von jpeg, aneinadergrenzende Pixel mit sehr ähnliche Farbbereichen werden zu größeren Blöcken einer durchschnitts Farbe zusammengefaßt. Zum Anderen wird nicht 25 Mal pro Sekunde ein komplettes Bild aufgenommen sondern nur wenige Bilder (Full Keyframes) enthalten sämtliche Informationen. Die Bilder dazwischen enthalten nur die Veränderungen von Blöcken zum vorherigen Bild.
Daraus folgt, das sich ruhige Szenen mit wenigen Farben oder Kontrasten besser komprimieren lassen, als schnelle Szenen mit hohem Dynamikumfang (siehe auch Konvertierung). Weitere Einsparungen finden durch eine reduktion der Farbkanäle statt, was zu einem künstlich verkleinerten Dynamikumfang führt (bsp. 4.4.2/4.4.0/4.2.0). Hochwertige Codecs wie z.B. apple-prores stellen einen guten Kompromiss zwischen Qualität und Dateigröße (z.B. für die Archivierung und/oder Berabeitung) dar. Sie sind aber häufig kostenpflichtig.

Dynamikumfang = gibt an wie exakt die Kamera das komplette Helligkeitsspektrum differenzieren kann. Gute Kamera können den Bereich von Schwarz-Weiß über ca. 12 Blendenstufen abbilden. Günstigere Kameras schaffen zwischen 6-10 Blendenstufen. In der Praxis äußert es sich so, daß ein geringer Dynamikumfang das Leuchten einer Glühbirne nicht mehr in viele einzelne hellgraue Tonwerte aufschlüsseln kann, sondern sehr schnell einen weißen "Fleck" abbildet (Überbelichtung). Umgekehrt gilt das gleiche für schwarz. Hoher Dynamikumfang bedeutet, daß man selbst auf einem Schwarzen Stoff noch einzelne Maschen erkenne kann, die bei geringem Dynamikumfang im schwarz "absaufen" (also nicht mehr als sehr dunkles Grau erkannt werden).

Konvertierung = Formatumwandlung, meist um original material auf ein kleiners abspielbares Format zu bringen oder umgekehrt als unkomprimiertes Material für die Nachbearbeitung in best möglicher Qualität zu erhalten. Gängige Parameter sind die Anzahl von Durchgängen in denen das Material auf Bildveränderungen durchlaufen wird, um den best Möglichen Kompromiß zwischen Dateigröße und Bildqualität bei stark komprimierenden Codecs zu erhalten. Bsp. 1pass/2pass/Multipass encoding. Das gänigste unkomprimierte Format wären Einzelbilder (bmp,tiff) entweder als einzelne Dateien gespeichert oder komfortabler als Videodatei im .avi Format abgelegt. Es gibt auch verlustfreie komprimierte Formate wie (png) oder .avi compressed. Hier werden z.B. bei der Kompresion, die einzelnen Pixel gleicher Farbe gezählt und für nebeneinanderliegende Pixel nur einmal der Wert der Farbe plus der Anzahl der Wiederholungen gespeichert (wie ein Raster auf dem nur die Anzahl gleichfarbiger Flächen notiert wird). .Naturgemäß ist die Platzeinsparung bei diesen Formaten deutlich geringer als bei verlustbehafteteten Kompressionsformaten. Führt also zu größere Dateien. Einsparung zu uncompressed ca. 20-30%.

Vielleicht beantwortet das schon einiger Deiner Fragen. Kann gerne durch weitere Begriffe ergänzt werden.

Dieser Beitrag wurde bereits 10 mal editiert, zuletzt von »rick« (2. März 2012, 12:02)


niGGo

Registrierter Benutzer

  • »niGGo« ist männlich

Beiträge: 872

Dabei seit: 5. Dezember 2005

Frühere Benutzernamen: niGGo

Hilfreich-Bewertungen: 44

  • Private Nachricht senden

7

Freitag, 2. März 2012, 12:17

Mein persönlicher Lieblingskonverter auf dem Mac ist immernoch Quicktime Pro 7. Alternativ gehen zB auch MPEG Streamclip oder FFMPEGX.

Hm? 5DtoRGB ganz vergessen? ;)

Ist für Mac und Windows erhätlich und ebenfalls kostenlos (außer der Mac Batch-Version).

Es hat bereits 1 registrierter Benutzer diesen Beitrag als hilfreich eingestuft.

Benutzer, die diesen Beitrag hilfreich fanden:

Sketch

Sketch

Compositing Artist

  • »Sketch« ist männlich

Beiträge: 692

Dabei seit: 20. April 2006

Wohnort: Düsseldorf

Hilfreich-Bewertungen: 12

  • Private Nachricht senden

8

Freitag, 2. März 2012, 12:44

@niggo: vielen Dank für den Tipp, das Tool kannte ich auch noch nicht. Sieht vielversprechend aus, werde ich in Zukunft sicher mal testen! :)
"Viele Menschen sind zu gut erzogen, um mit vollem Mund zu sprechen, aber sie haben keine Bedenken dies mit leerem Kopf zu tun."

joey23

Co-Administrator

Beiträge: 5 160

Dabei seit: 12. September 2009

Hilfreich-Bewertungen: 1175

  • Private Nachricht senden

9

Freitag, 2. März 2012, 13:39

Das kenne ich auch noch nicht. Vielen Dank für den Tipp, werd ich mir anschauen!

Ähnliche Themen

Verwendete Tags

After Effects, h264, iMovie, Konvertierung, mac

Social Bookmarks