Video-Konvertierung mit FFMPEG
FFmpeg ist eine Sammlung von OpenSource-Software-Tools zum Konvertieren von Digitalem Video- und Audiomaterial in verschiedene Codec- und Containerformate. Neben dem Programm “ffmpeg”, das für Windows, Linux und MacOS für die Kommandozeile zur Verfügung steht, steht mit libavcodec eine Programmierbibliothek (API) für GCC-Compiler zur Verfügung.
Achtung!
Der Versionsstand verschiedener ffmpeg-Versionen ist sehr unterschiedlich. Es sollte eine Version ab mind. 2012 oder 2013 eingesetzt werden, da erst damit korrekte h264/mp4-Files erzeugt werden können. Mit älteren Versionen wurde standardmäßig “MPEG4 V.1” erzeugt, das nicht kompatibel zu iPhone, Flash oder HTML5 ist. Grund: der File-Container ist MP4, auch “ISO File Format” (ISOFF) genannt. In dem Container wird aber das codierte Videoformat “MPEG4 Video” gespeichert (Codec).
Für Kompatibilität den o.g. Plattformen muss das Codecformat H.264 verwendet werden. ITU H.264 ist identisch mit ISO-Format MPEG4 AVC, Advanced Video Coding.
Anwendungsbeispiele
Umwandlung eines AVI-Files in ein MPEG4/MP4-File:
ffmpeg -i input.avi output.mp4
Befehlszeile mit expliziter Codec-Angabe zum Umwandeln in H264/MP4:
ffmpeg -i input.avi -vcodec libx264 -vprofile main output.mp4
Was bedeuten die weiteren Optionen?
-vcodec libx264 verwendet den freien H.264-Codec "x264"
-vprofile main verwendet das "Main-Profile" aus dem H.264 Standard
Welche Profile gibt es noch?
-vprofile baseline
verwendet das “Baseline Profile”, was ohne B-Frames komprimiert
-vprofile high
ist der Standard-Wert, der aber nicht zu allen Geräten kompatibel ist.
Einstellen der Qualität (Bitrate)
Die Bitrate wird über die Option “-b” eingestellt. In aktuellen ffmpeg-Versionen wird die Bitrate für den Video- oder Audioanteil getrennt über die Option “-b:v” eingestellt.
Beispiel:
ffmpeg -i input.avi -b:v 2000k -b:a 128k output.mp4
Änderung der Bildgröße
Option “-s WIDTHxHEIGHT”
Beispiel:
ffmpeg -i input.avi -s 640x480 output.mp4
ffmpeg -i INFILE -vf crop=640:360:0:60 ... OUTFILE
crop : Operation: Ausschneiden
640:360 : die Größe (Dimension) WIDTH:HEIGHT des Resultats
0:60 : der Offset X:Y des Ausschnitts von der oberen linken Ecke
des Eingangsmaterials (INFILE)
INFILE sei ein 16:9-formatiger Film der Größe 640×360, der mit 60 Pixel hohen Balken oben und unten auf 4:3-Format gebracht werden soll. Kommando:
ffmpeg -i INFILE -vf pad=640:480:0:60 ... OUTFILE
pad : Operation: Auffüllen
640:480 : die Größe (Dimension) WIDTH:HEIGHT des Resultats (OUTFILE)
0:60 : der Offset X:Y des Films von der oberen linken Ecke des Resultats
Software-Download
Weitere Links:
Folien 1 von AM / Ausgewählte Themen Medien / Videoproduktion
Streaming und Progressive Download – Grundlagen
Durch den Erfolg von Youtube usw. hat sich Web-Video und Web-Streaming mittlerweile als Standardtechnologie etabliert.
Allerdings kann man nicht in jedem Fall von echtem Streaming sprechen.
Progressive Download (“Quasi-Streaming”)
Video-Datei liegt auf einem herkömmlichen Webserver (z.B. Apache)
Download und gleichzeitiges Abspielen über HTTP
Das gesamte Video muss heruntergeladen werden um auch das Ende ansehen zu können (Workarounds möglich).
In der Regel entsteht höherer Traffic, da mehr und schneller heruntergeladen als tatsächlich angesehen wird.
Protokoll: HTTP
Beispiel-URL: http://example.com/testvideo.mp4
Streaming
Es werden spezielle Streaming Server benötigt, z.B. Flash Media Server, IIS, Wowza
Der Zuschauer kann Vor- und Zurückspringen ohne den gesamten Inhalt herunterladen zu müssen.
Es wird nur der Inhalt übertragen, der tatsächlich angesehen wird.
Protokolle: RTMP (Flash), RTSP, MMS (WindowsMedia)
Beispiel-URL: rtsp://example.com/testapp/teststream
Smooth Streaming / Segmented Streaming
In diesem Fall wird ein aufwendiger Streaming-Server verwendet, der das Material in Einzelteilen (“Chunks”) ausliefert. Der Player allerdings sieht nur eine “einfache” Playlist aus HTTP-Einzelteilen, die über HTTP-Streaming abgespielt werden.
Dieses Prinzip wird beim sog. Cupertino-Streaming für iOS (iPhone/iPad/iPod) sowie bei SmoothStreaming mit Microsoft Silverlight eingesetzt.
Beispiel-URL: http://example.com/testvideo.m3u8
3D-Video mit HTML5 und Javascript
Prof. Jürgen Lohr zeigt auf seiner Webseite, wie man mit HTML5 und Javascript 3D-Videos anzeigen kann. Ohne Plugin, läuft aber z.Zt. nur mit Opera-Browser.
Dort befinden sich auch weitere Seiten zum Multiview– und 3D-Video-Streaming.
2D-Video in 3D Umwandeln AviSynth
Wie in der c’t 6/10, S. 116 sowie im Sonderheft Multimedia vorgestellt, lässt sich mit Hilfe eines einfachen Avisynth-Skriptes ein 3D-Video-Effekt aus einem 2D-Film simulieren.
Der Effekt basiert auf dem Pulfrich-Effekt.
Es handelt sich letztlich um eine optische Täuschung, die aber verblüffende Ergebnisse erzielen kann.
Anliegend eine speziell erstellte AviSynth-Version 2.5.8 MT inkl. der notwendigen Plugins MVTools und MT.
Beispielskripte finden sich nach der Installation unter %Programme%\AviSynth\Examples
Weitere Infos zu Avisynth hier.
AviSynth
AviSynth ist ein leistungsfähiges Programm für die sktiptbasierte Nachbearbeitung von Videos.
Es bietet fast unendlich viele Wege ein Video zu schneiden und zu bearbeiten.
AviSynth arbeitet als Frameserver für Videos. Dieser ermöglicht die Weitergabe einer virtuellen
Video-Datei an einen Player, Encoder oder ein anderes Programm zur weiteren Bearbeitung.
Das Tool arbeitet skriptbasiert ohne grafische Oberfläche. Die Video-Skripte werden im AVS-Format gespeichert. Die AVS-Dateien werden von anderen Programmen wie Media Playern als normale Videodatei im AVI-Format interpretiert, die aber nur emuliert wird.
http://avisynth.org/oldwiki/index.php?page=AviSynth+Deutsch
http://de.wikipedia.org/wiki/AviSynth
Beispiele in diesem Blog:
Anzeige von Bewegungsvektoren in Videos
Umwandlung von 2D-Videos nach 3D
Bewegungsvektoren / Motion Vectors
Mit Hilfe von Bewegungsvektoren kann die Bewegung in einem Bild mathematisch beschrieben werden. Hier ein Beispiel. Die Dame im Vordergrund bewegt sich innerhalb des Bildes nach rechts, die Kamera schwenkt ebenfalls nach rechts, d.h. der Hintergrund wandert nach links.
Bewegungsvektoren werden in diesem Fall für je 16×16 Pixel berechnet und angezeigt.
[FlasHTML5]
useFlashFirst:true,
mobileVideoObject: new HTML5VideoObject(480,192, {“autobuffer”:”autobuffer”,”controls”:”controls”}),
mobileH264: new HTML5VideoAsset(“http://bht.multimediastreaming.info/wp-content/uploads/2010/11/mv.mp4″,”video/mp4”),
mobilePosterImage: new HTML5VideoImage(“/wp-content/uploads/2010/11/motionvectors.png”, 480, 192, “telematics”, “No video playback capabilities.”),
androidPosterImage: new HTML5VideoImage(“/wp-content/uploads/2010/11/motionvectors.png”, 480, 192),
desktopVideoObject: new HTML5VideoObject(480, 390, {“autobuffer”:”autobuffer”,”controls”:”controls”}),
desktopH264: new HTML5VideoAsset(“http://bht.multimediastreaming.info/wp-content/uploads/2010/11/mv.mp4″,”video/mp4”),
desktopAdditionalVideos: [new HTML5VideoAsset(“/wp-content/uploads/2010/11/mv.mp4″,”video/ogg”),
new HTML5VideoAsset(“http://bht.multimediastreaming.info/wp-content/uploads/2010/11/mv.mp4″,”video/webm”)],
desktopFlashObject: new HTML5VideoFlashObject(“http://labs.byhook.com/html5video/player.swf”, 600, 400, {“allowFullScreen”:”true”, “flashvars”:”file=http://bht.multimediastreaming.info/wp-content/uploads/2010/11/mv.mp4&image=/wp-content/uploads/2010/11/motionvectors.png”}),
desktopPosterImage: new HTML5VideoImage(“/wp-content/uploads/2010/11/motionvectors.png”, 600, 400, “nanocosmos”, “No video playback capabilities.”)
[/FlasHTML5]
Das Bild wurde mit avisynth und einem kleinen Skript erzeugt:
#AviSynth script for showing motion vectors in a video
source = AviSource(“j:\tfa.avi”)
source = source.ConvertToYUY2()
# Calculate Motion
mSuper = MSuper(source)
mVector = MAnalyse(mSuper, blksize=16)
# Show Motion
MShow(mSuper, mVector).Trim(25,200)
Farbräume im Vergleich
Bruce Lindbloom zeigt auf seiner Seite mit anschaulichen Java-Applets, wie die CIE- und andere Farbräume im 3D-Raum aussehen.
Viele Spezialinfos!
Continue reading “Farbräume im Vergleich”
Abtastung und Quantisierung von Digitalen Bildern
Was ist ein Digitales Bild?
Jedes Video-Bild oder jeder Audio-Ton kann als Signal aufgefasst werden, d.h. als Funktion über physikalische Größen. Bei Bildern ergibt sich eine 2D-Funktion für jeden Ort des Bildes mit jeweils einem Wert für die Intensität des Bildes (Farbe/Helligkeit).
Das Signal kann auf eine eindimensionale Funktion über den Verlauf einer Bildzeile reduziert werden, das für jeden Ort der Zeile eine Helligkeit bzw. die Farbintensität angibt (siehe Video/TV-Signal). Die Grenzen liegen zwischen den Rändern des Bildes sowie dem maximalen Intensitätsbereich der Farbwerte.
In der Analogtechnik ist das Signal kontinuierlich sowohl im Orts- als auch Wertebereich, d.h. es existieren theoretisch unendlich viele Werte innerhalb der Intervalle.
Bei der Digitalisierung wird das Signal in eine feste Anzahl von Diskreten Zahlenwerten eingeteilt.
Die Einteilung der X-Achse wird als Abtastung, die des Wertebereiches (Y-Achse) als Quantisierung bezeichnet.
Beispiel für digitale HDTV-Bilder: Abtastung einer Zeile mit 1920 Spalten, Quantisierung der Farbwerte mit je 256 Stufen (8 Bit).