Suchergebnisse
Suchergebnisse 1-30 von insgesamt 187.
Zitat von »Dynamic« After Effects -> Lossless .avi -> Premiere Pro Auch wenn das jetzt mit dem eigentlichen Problem nichts zu tun hat, warum diese Vorgehensweise? Dynamic Link ist doch eine der besten Funktionen der Adobe Suite für die Video-Postproduktion. Und die ist dazu da, um genau solchen zeitaufwändigen und wenig flexiblen Unsinn überflüssig zu machen.
Zitat von »JoJu« Re-warp AVCHD for QuickTime Ich nehme an, Du meinst Re-wrap, oder? Das sollte ja deinen h.264-Stream einfach nur aus dem mp4- oder mts-Container in einen mov-Container überführen (was dann übrigens auch bedeutet, dass die Performance auf "h.264-Level" bleibt). Dabei sollte keine Änderung an den Videodaten vorgenommen werden, also müssten auch die 50fps erhalten bleiben und Du solltest eigentlich mit der Vorgehensweise von UhlFilms zurande kommen. Bist Du dir denn ganz sicher, d...
Danke, aber erstens geht es hier im Thread vorwiegend nicht um das Downloaden von Videos. Außerdem war die Möglichkeit des Downloads nur vorgeschlagen worden, um die Qualität zu erhöhen, also eine weitere Kodierung durch den Streamhoster zu verhindern. Daher ist das Downloaden (oder Auffinden der temporären Dateien) der Streams, was Du beschreibst, leider keine Lösung des Problems. Ich möchte die Download-Debatte damit hier auch gern beenden, da ich mich eben dafür entschieden habe, Youtube und ...
Dankesehr! Nun ja, wenn man im Monat 10 bzw. im Jahr 60 Dollar für eine Plus-Mitgliedschaft ausgibt, dann ja. Ansonsten kann man maximal in 720p hochladen und dementsprechend auch nur den Download mit dieser Auflösung erlauben.
Jo, danke. Handbrake kenne ich, exportiere aber grundsätzlich direkt aus Premiere. Die Größe bezog sich übrigens bereits auf einen h.264-Export. Dropbox habe ich ebenfalls, das hosten würde also schon klappen, aber wie gesagt, ich denke die Nachfrage wäre (abgesehen von Dir vll. ) doch eher gering. Außerdem ist Streaming nun mal die Art, wie Leute mittlerweile Videos konsumieren und ob man will oder nicht, muss man sich damit anfreunden.
Ja, das Thema mit der Youtube-Kompression enttäuscht mich auch immer wieder aufs neue. Aber die exportierte Datei ist 1,2 GB groß und dafür habe ich erstens keinen Webspace und zweitens denke ich, dass es im Endeffekt kaum jemand runterladen würde.
Nein, die 600D wurde für alle Zeitrafferaufnahmen verwendet!
Danke! Leider muss ich dich aber enttäuschen, alle Videosequenzen im Clip sind mit der GH1 gemacht...
Titel: Tick-Tock Beschreibung: Ich habe mal den Versuch unternommen, unter anderem ein paar schwierige (schon länger geplante) Aufnahmen zu realisieren. Außerdem entdecke ich gerade die Faszination an Urban Exploring bzw. Lost Places. Infos zur Entstehung: Kamera: Canon 600D, Panasonic GH1Sonstiges Equipment: eMotimo TB3 Black, Dynamic Perception Stage OneSoftware: PPro, AE Länge: 3'30" Minuten Streams: Youtube (bis 1080p): http://www.youtube.com/watch?v=DrCLW5ETGaE Vimeo (bis 720p): http://vime...
Zitat von »joey23« Warum sollte ich ein H264-File nach H265 kodieren?! Das sollte man natürlich auch nicht tun! Was ich meinte war, dass es darauf ankommt, wieviel effizienter h.265 im Vergleich zu h.264 arbeitet (eine Konvertierung vom einen Codec in den anderen war natürlich nicht gemeint). Aber zu sagen, ich schaffe eine Kompression um 99% von der Originalgröße in ProRes444 ist doch nur dann aussagekräftig, wenn ich weiß, wie groß die Datei im Vergleich dazu mit h.264 wäre.
Schöner Griff ins Klo für Andrew Reid... ProRes444 mit H.265 zu vergleichen, so einen Unsinn habe ich ja schon länger nicht gelesen. Kann man natürlich machen, aber was sagt das schon aus? Fakt ist, dass h.265 im Vergleich zu h.264 eine Datenratenreduktion bei gleicher Qualität um 50% zulässt, also quasi doppelt so effizient ist. Man könnte demnach vermutlich die gleiche Sequenz mit h.264 kodieren und anschließend sagen, dass die Dateigröße auf 2% reduziert wurde. Außerdem ist gerade die Bewegtb...
Das hängt natürlich von der Komprimierung bzw. der Größe der Einzelframes ab. Die Rechnung für z.B. 10 Bit RAW könnte (ungefähr) folgendermaßen aussehen: Quellcode 1 2 Datenmenge = Quantisierungsrate * Anzahl Farbkanäle * Bildbreite * Bildhöhe * Bildwiederholrate * Aufnahmedauer D = 10 Bit * 3 * 1920 * 1080 * 2000 B/s * 10 s = 1158,7 GBit = 144,8 GByte Bei der Sony FS700 würde das aber z.B. ganz anders aussehen, weil die (soweit ich weiß) nur mit externem Rekorder und nur mit maximal 60 fps in R...
Zitat von »Jackman« Das Bild ist jedoch nicht zu 100% rauschfrei wie ich es gern hätte Das ist auch schlicht nicht möglich. Könntest Du mal eine Frame (in Originalgröße) hochladen, damit wir beurteilen können, wie stark das Rauschen ist?
Ja, richtig. Genau das war mein Punkt, darum geht es in diesem Thread nicht.
Zitat von »L.Orion« warum liest sich hier nirgends Frameserver und MeGUI? Weil es sich dabei nicht um Videobearbeitungssoftware handelt, nehme ich an.
Je mehr Bilder pro Sekunde Du aufnehmen willst, desto kürzer muss logischerweise die Belichtungszeit sein (der Kehrwert der Bildwechselfrequenz wäre das theoretische Maximum an Belichtungszeit). Das kann man dann ausgleichen mit erhöhter Empfindlichkeit oder (besser) viel Licht, entweder künstlich oder halt mit richtigem Tageslicht. Richtige Hochgeschwindigkeitskameras bewegen sich häufig im Preissegment von Mittelklasseautos oder mehr (häufig vermutlich sogar ohne entsprechend nötiges Zubehör)....
Sofern Du als Quellmaterial 1080i (und nicht 1080p) hast, sollten die Einstellungen passen. Obwohl man je nach Zielmedium auch ein Deinterlacing, also eine Konversion von 1080i zu 1080p in Erwägung ziehen könnte. Aber das hat mit den Artefakten natürlich erst mal nichts zutun. Trat das Problem plötzlich auf, also hat der Export auf diese Art und Weise sonst schon häufig funktioniert? Was passiert, wenn Du ohne Quicktime-Konvertierung, also als Quicktime-Film oder wie das heißt (aber als eigenstä...
Diese Bildartefakte nennen sich Rauschen und sind in jedem elektronisch abgetasteten Bild vorhanden. Worauf es ankommt ist, ob es auffällig ist. Stark vereinfacht kann man sagen, dass je niedriger das Signal ist ("je dunkler ein Pixel"), desto näher kommt das Signal in den Bereich des Rauschens und wird damit stärker sichtbar. Die Erhöhung der ISO (also der elektronischen Verstärkung des Signals) bewirkt ein größeres Verstärkerrauschen und bei geringer Signalleistung eine verhältnismäßig starke ...
Also bei mir verändert die Dreiwege-Farbkorrektur nichts, wenn sie ohne geänderte Parameter auf einen Clip angewandt wird.
Also ich habe auf meiner Seite einige Videos im Seitenverhältnis 2,4:1 eingebettet. Das sieht in HTML dann folgendermaßen aus: Quellcode 1 <iframe width="640" height="266" src="https://www.youtube-nocookie.com/embed/8pW1wrtBoDQ?rel=0;3&autohide=1&showinfo=0" frameborder="0"></iframe> Wenn Du dann (je nach Größe, mit der Du das Video einbetten möchtest, das macht man ja eher nicht in FullHD) die Pixelmaße für Höhe und Breite vertauschst, müsste es theoretisch möglich sein, das Video "hoch...
Bei einem meiner Videos kommt dieser Hinweis auch. In meinem Fall hängt das mit einem Song zusammen, der zwar unter einer CC-Lizenz (Attribution-NonCommercial-ShareAlike) veröffentlicht wurde, scheinbar aber dennoch in irgendeiner Datenbank von geschützter Musik, auf welche Youtube zurückgreift, auftaucht. Wenn Du in deinem Video-Manager links auf "Urheberrechtshinweise" klickst und dann bei dem entsprechenden Video auf den Link "Übereinstimmende Inhalte von Drittanbietern", dann erfährst Du, wo...
Die Halbbildtechnologie kommt aus der Zeit der Bildröhren, wird heutzutage im TV aber nach wie vor verwendet (sogar für HD, wie z.B. als 1080i25). Grundsätzlich bieten 50 Halbbilder im Vergleich zu 25 Vollbildern pro Sekunde eine bessere Bewegungsauflösung. Wenn jedoch später in Progressiv wiedergegeben werden soll, wird ein Deinterlacing erforderlich, welches entsprechende Artefakte mit sich bringt (je nach Qualität des Deinterlacers). Der Einfachheit und größeren Kompatibilität halber würde ic...
Zitat von »joey23« Das wird man schon seit vielen Jahren/Versionen, das ist keine neue Funktion. Ah okay, bei mir ist es bei dieser Version zum ersten Mal passiert. Aber gut zu wissen, danke!
Ja, das Ruckeln ist wirklich ganz schön auffällig. Also das mit den Frames auslassen, was Du beschreibst, wird normalerweise durch die Option 'Überblenden von Frames' korrigiert. Handelt es sich bei der Quelle um Halbbildmaterial? Evtl. stimmt dann etwas mit der Halbbildreihenfolge nicht. Du kannst mal verschiedene Einstellungen unter "Halbbildoptionen" durchprobieren, wenn du mit der rechten Maustaste auf einen Clip in der Sequenz klickst. Hast Du die Sequenz so erstellt, dass Du eines der Vide...
Je nachdem, was genau Du mit Rucklern meinst, hilft vielleicht folgendes: Rechte Maustaste auf Clip(s) und dann "Frames überblenden" anwählen. Hier das entsprechende Hilfethema bei Adobe: Überblenden von Frames für weiche Bewegungen
In der Tat sehr interessant, hab mich auch mal beteiligt. Da bestätigt sich für mich wieder mal, warum ich es kaum noch ertragen kann, synchronisierten Mist zu gucken. Hier lohnt sich auch mal ein Besuch: http://against-dubbing.com/
Hab die Mail auch eben bekommen. Hätte mich auch sehr gewundert, wenn die Bestellung nicht storniert worden wäre...
Danke für den Hinweis! Hab mir auch gleich mal eins bestellt, da von Amazon selbst verkauft, gibt's ja kein Risiko...
Zitat von »Dynamic« 1.) Welchen Workflow würdet ihr mir empfehlen? Ich würde versuchen, so viel wie möglich im Schnittprogramm zu machen. Da ich mich mit dem Funktionsumfang von Premiere Elements aber nicht auskenne, weiß ich nicht, wie weit man da kommt was beispielsweise das Grading angeht. Das Grading in AE durchzuführen ist aber selbstverständlich möglich und wird auch häufig so gemacht. Siehe dazu auch meinen nächsten Punkt (Dynamic Link). Zitat von »Dynamic« 2.) Wie kann ich z.B. Slowmo S...
Also was hier vorgeschlagen wurde, könnte natürlich sein. Es könnte aber auch sein, dass es sich um Artefakte bei der Bildaufnahme handelt. Probiere doch am besten mal eine Aufnahme ohne eine so starke Lichtquelle im Bild wie die Sonne und an einem anderen Ort (z.B. drinnen). Dann könnte man ja sehen, ob das Problem weiterhin besteht, oder ob es sich bei der Aufnahme wirklich um Partikel in der Luft gehandelt hat.