Live-Aufnahme für HTML5 – Technische Informationen zur Nachbearbeitung Live-Recording for HTML5 – Technical Informationen for Post ProcessingLive-Aufnahme für HTML5 – Technische Informationen zur Nachbearbeitung

Web-Einbindung der Live-Aufnahme

Diese Beschreibung zeigt, wie das Video auf die Player-Seite der Langen Nacht der Wissenschaften eingebunden wurde.

Live-Stream auf Webseite

Live Streams können mit bisherigen Browsern nur über Plugins eingebunden werden. Üblicherweise wird ein Flash-Player mit dem RTMP-Protokoll verwendet, so auch in unserem Fall.

Nachbearbeitung der Live-Aufnahme / Html5

Die Einbindung eines fertig aufgenommenen Files kann ab HTML5 direkt im Browser ohne Zusatzplugins erfolgen.

Dazu muss das File je nach Browser sowohl im H264/MP4-Format als auch im WebM-Format vorliegen.

Das aus der Regie mit der Mixer-Einheit gemischte Programm wurde mit der nanocosmos-Encoder-Software im Studio live zu einem Wowza-Server gestreamt und parallel auf dem Server als auch lokal im selben Format als MP4-File abgelegt.

Eckdaten: H.264 Video 600 kBits/s, 640×360 Pixel. AAC Audio, 32 kBits/s

Am Anfang der Aufnahme war einige Minuten Vorlauf, der weggeschnitten wurde. Da dies verlustfrei erfolgen sollte (ohne Neukompression), wurde dazu ffmpeg verwendet:

ffmpeg -ss 00:06:49.240 -i aufnahme.mp4 -acodec copy -vcodec copy ausgabe.mp4

Das Ergebnis wurde direkt in die Webseite eingebunden über das HTML5-video-Tag:

        <video id="video">
        <source src="http://www.beuth-media.de/ht/lndw13/video/reportage_lndw_2013.mp4" type="video/mp4" />

Zusätzlich wurden Kaptitelmarken eingefügt und Untertitel, beides im WEBVTT-Format:

        < video id="video" autobuffer="true" controls="true" poster="lndw.png">
        <source src="http://www.beuth-media.de/ht/lndw13/video/reportage_lndw_2013.mp4" type="video/mp4" />
		<track src="kapitel.vtt" label="Untertitel" kind="captions" srclang="de" default >
		<track src="untertitel.vtt" label="Kapitel" kind="chapters" srclang="de" default >
        </video>

Kapitelmarken

WEBVTT

Trailer
00:00:05.000 --> 00:01:00.000

Start
00:15:01.000 --> 00:15:59.000

Lichtlabor
00:16:30.000 --> 00:17:30.000

Interview 1
00:20:20.000 --> 00:22:30.000

iPod-Live WLAN 1
00:23:01.000 --> 00:23:06.000

Interview 2
00:30:01.000 --> 00:35:06.000

iPod-Live WLAN 3
00:39:20.000 --> 00:39:30.000
iPod Live / WLAN

Abmoderation
00:41:20.000 --> 00:55:06.000

Untertitel

WEBVTT

trailer
00:00:05.000 --> 00:01:00.000
Trailer - die Sendung beginnt in 15 min.

start
00:14:58.000 --> 00:14:59.000
Start

Moderation
00:15:10.000 --> 00:15:15.000
Moderation: Caro

00:23:07.000 --> 00:23:10.000
iPod Live / WLAN-Fehler

00:23:10.001 --> 00:23:40.000
iPod Live / WLAN - Wir bitten die Bildfehler zu entschuldigen.

Noch offen:

– Beschreibung Produktion
– Beschreibung Regie
– Beschreibung Live-Player
– Konvertierung nach WebM
– Einbindung in Beuth Box
– …

Web-Einbindung der Live-Aufnahme

Diese Beschreibung zeigt, wie das Video auf die Player-Seite der Langen Nacht der Wissenschaften eingebunden wurde.

Live-Stream auf Webseite

Live Streams können mit bisherigen Browsern nur über Plugins eingebunden werden. Üblicherweise wird ein Flash-Player mit dem RTMP-Protokoll verwendet, so auch in unserem Fall.

Nachbearbeitung der Live-Aufnahme / Html5

Die Einbindung eines fertig aufgenommenen Files kann ab HTML5 direkt im Browser ohne Zusatzplugins erfolgen.

Dazu muss das File je nach Browser sowohl im H264/MP4-Format als auch im WebM-Format vorliegen.

Das aus der Regie mit der Mixer-Einheit gemischte Programm wurde mit der nanocosmos-Encoder-Software im Studio live zu einem Wowza-Server gestreamt und parallel auf dem Server als auch lokal im selben Format als MP4-File abgelegt.

Eckdaten: H.264 Video 600 kBits/s, 640×360 Pixel. AAC Audio, 32 kBits/s

Am Anfang der Aufnahme war einige Minuten Vorlauf, der weggeschnitten wurde. Da dies verlustfrei erfolgen sollte (ohne Neukompression), wurde dazu ffmpeg verwendet:

ffmpeg -ss 00:06:49.240 -i aufnahme.mp4 -acodec copy -vcodec copy ausgabe.mp4

Das Ergebnis wurde direkt in die Webseite eingebunden über das HTML5-video-Tag:

        <video id="video">
        <source src="http://www.beuth-media.de/ht/lndw13/video/reportage_lndw_2013.mp4" type="video/mp4" />

Zusätzlich wurden Kaptitelmarken eingefügt und Untertitel, beides im WEBVTT-Format:

        < video id="video" autobuffer="true" controls="true" poster="lndw.png">
        <source src="http://www.beuth-media.de/ht/lndw13/video/reportage_lndw_2013.mp4" type="video/mp4" />
		<track src="kapitel.vtt" label="Untertitel" kind="captions" srclang="de" default >
		<track src="untertitel.vtt" label="Kapitel" kind="chapters" srclang="de" default >
        </video>

Kapitelmarken

WEBVTT

Trailer
00:00:05.000 --> 00:01:00.000

Start
00:15:01.000 --> 00:15:59.000

Lichtlabor
00:16:30.000 --> 00:17:30.000

Interview 1
00:20:20.000 --> 00:22:30.000

iPod-Live WLAN 1
00:23:01.000 --> 00:23:06.000

Interview 2
00:30:01.000 --> 00:35:06.000

iPod-Live WLAN 3
00:39:20.000 --> 00:39:30.000
iPod Live / WLAN

Abmoderation
00:41:20.000 --> 00:55:06.000

Untertitel

WEBVTT

trailer
00:00:05.000 --> 00:01:00.000
Trailer - die Sendung beginnt in 15 min.

start
00:14:58.000 --> 00:14:59.000
Start

Moderation
00:15:10.000 --> 00:15:15.000
Moderation: Caro

00:23:07.000 --> 00:23:10.000
iPod Live / WLAN-Fehler

00:23:10.001 --> 00:23:40.000
iPod Live / WLAN - Wir bitten die Bildfehler zu entschuldigen.

Noch offen:

– Beschreibung Produktion
– Beschreibung Regie
– Beschreibung Live-Player
– Konvertierung nach WebM
– Einbindung in Beuth Box
– …

Web-Einbindung der Live-Aufnahme

Diese Beschreibung zeigt, wie das Video auf die Player-Seite der Langen Nacht der Wissenschaften eingebunden wurde.

Live-Stream auf Webseite

Live Streams können mit bisherigen Browsern nur über Plugins eingebunden werden. Üblicherweise wird ein Flash-Player mit dem RTMP-Protokoll verwendet, so auch in unserem Fall.

Nachbearbeitung der Live-Aufnahme / Html5

Die Einbindung eines fertig aufgenommenen Files kann ab HTML5 direkt im Browser ohne Zusatzplugins erfolgen.

Dazu muss das File je nach Browser sowohl im H264/MP4-Format als auch im WebM-Format vorliegen.

Das aus der Regie mit der Mixer-Einheit gemischte Programm wurde mit der nanocosmos-Encoder-Software im Studio live zu einem Wowza-Server gestreamt und parallel auf dem Server als auch lokal im selben Format als MP4-File abgelegt.

Eckdaten: H.264 Video 600 kBits/s, 640×360 Pixel. AAC Audio, 32 kBits/s

Am Anfang der Aufnahme war einige Minuten Vorlauf, der weggeschnitten wurde. Da dies verlustfrei erfolgen sollte (ohne Neukompression), wurde dazu ffmpeg verwendet:

ffmpeg -ss 00:06:49.240 -i aufnahme.mp4 -acodec copy -vcodec copy ausgabe.mp4

Das Ergebnis wurde direkt in die Webseite eingebunden über das HTML5-video-Tag:

        <video id="video">
        <source src="http://www.beuth-media.de/ht/lndw13/video/reportage_lndw_2013.mp4" type="video/mp4" />

Zusätzlich wurden Kaptitelmarken eingefügt und Untertitel, beides im WEBVTT-Format:

        < video id="video" autobuffer="true" controls="true" poster="lndw.png">
        <source src="http://www.beuth-media.de/ht/lndw13/video/reportage_lndw_2013.mp4" type="video/mp4" />
		<track src="kapitel.vtt" label="Untertitel" kind="captions" srclang="de" default >
		<track src="untertitel.vtt" label="Kapitel" kind="chapters" srclang="de" default >
        </video>

Kapitelmarken

WEBVTT

Trailer
00:00:05.000 --> 00:01:00.000

Start
00:15:01.000 --> 00:15:59.000

Lichtlabor
00:16:30.000 --> 00:17:30.000

Interview 1
00:20:20.000 --> 00:22:30.000

iPod-Live WLAN 1
00:23:01.000 --> 00:23:06.000

Interview 2
00:30:01.000 --> 00:35:06.000

iPod-Live WLAN 3
00:39:20.000 --> 00:39:30.000
iPod Live / WLAN

Abmoderation
00:41:20.000 --> 00:55:06.000

Untertitel

WEBVTT

trailer
00:00:05.000 --> 00:01:00.000
Trailer - die Sendung beginnt in 15 min.

start
00:14:58.000 --> 00:14:59.000
Start

Moderation
00:15:10.000 --> 00:15:15.000
Moderation: Caro

00:23:07.000 --> 00:23:10.000
iPod Live / WLAN-Fehler

00:23:10.001 --> 00:23:40.000
iPod Live / WLAN - Wir bitten die Bildfehler zu entschuldigen.

Noch offen:

– Beschreibung Produktion
– Beschreibung Regie
– Beschreibung Live-Player
– Konvertierung nach WebM
– Einbindung in Beuth Box
– …

Vortrag: Zukünftige Fernsehstandards – Produktion, Verbreitung und Konsumer

http://fktg.de/veranstaltungen.asp?idveranst=70312

TV- Zukunft
Termin: 27.11.2012 , 17:00 – 19:00 Uhr

Veranstaltungsort: Rundfunk Berlin-Brandenburg – Haus des Rundfunks
Masurenallee 8-14
14057 Berlin
Referent(en): Dr Hans Hoffmann, Senior Manager (EBU Technology and Development Department)

Zukünftige Fernsehstandards – Produktion, Verbreitung und Konsumer

Die Nutzung digitaler Medien wird gegen Ende 2012 auf das 10-fache[1] seines Wertes in 2006 angestiegen sein. Die Verantwortung für diesen Anstieg liegt in der Verfügbarkeit von digitalen Endgeräten mit einer Vielzahl von Angeboten, einer vermehrten Nutzung von multimedialen Inhalten über das Internet, insbesondere aber auch in der mobilen Nutzung. Konsumenten erwarten auch auf mobilen Geräten eine hohe Aktualität, Verfügbarkeit von einer Vielzahl von Inhalten und eine technische Qualität, die zumindest auf Tablets mit HD Auflösung der von HDTV Fernsehstandards nichtnachstehen soll. Im weiteren finden gerade heute bahnbrechende Entwicklungen im Bereich neuer „beyondHD“ Fernsehstandards dar, obwohl doch gerade erst die Migration zu HDTV in Produktion und Verbreitung stattfindet. Viele Interoperabilitätsprobleme sind zum Beispiel noch offen im Bereich der bandlosen HDTV Produktion.
Die Konsequenzen dieser Entwicklungen für die Rundfunkanstalten und das gesamte „Digitale Ecosystem“ sind signifikant. Zum einen werden Technologien eingesetzt, die eine multimediale („Crossmedia“) Produktion vereinfachen, zum anderen werden Veränderungsprozesse für die Anwender dieser Technologien (z.B. Journalisten) als auch für die organisatorische Struktur der Rundfunkanstalten notwendig sein. Wir sehen heute erst die Spitze des Eisberges, welche technischen Funktionen (z.B. Transcodierung, Archivierung, usw. ) in Cloud-Service ausgelagert werden können, und wie eine völlig IP basierende Studioinfrastruktur aufgebaut sein kann.

Ein großes Interesse besteht aber auch an sogenannter „immersive Media“, welche dem Zuschauer vor dem Bildschirm zuhause oder im Kino einen noch höheren Realitätseindruck vermitteln soll. Schließlich sucht die Industrie dringend nach neue Absatzchancen für neue Flachbildschirme in noch höherer Auflösung und evtl. brillenlosem 3DTV. Der Begriff „BeyondHD“ wird in diesem Zusammenhang benutzt, umschreibt aber nur ansatzweise die komplexe Thematik von HD-Nachfolgetechnologien. Hierbei geht nicht nur um eine Erhöhung der spatiellen Auflösung, sondern auch um höhere Bildwiederholraten (z.B. 120 Hz), erweiterter Farbraum, „Higher Dynamic Range“, Bittiefe und das Bild-Seitenverhältnis (von 16:9 zu 21:9) .Ultra-High-Definition (UHDTV) wird hier als Beispieltechnologie aufgeführt, die in den nächsten Jahren HDTV ablösen soll (zumindest in Japan) – wobei sich die Industrie nicht einig ist, ob die Zukunft nun 4k oder UHDTV mit 8k – oder beides sein wird. Es gilt hier einige Barrieren zu überwinden, nicht zuletzt in der Produktion, der Distribution (z.B. hybride Distribution mit IP und traditioneller DTT-SAT Technologie) insbesondere aber auch um sinnvolle Geschäftsmodelle. Im Konsumerbereich zumindest werden 4k Camcorder, DSLR Kameras, Games, Downloads in naher Zukunft als Contentquellen zur Verfügung stehen. Auch die EBU hat in der Arbeitsgruppe BeyondHD 4k, 3D und „Higher Frame Rate“ Testmaterial generiert und erste Test mit neuen HEVC Kompressionsformaten durchgeführt.
Der Vortrag wird die oben genannten Themen im Allgemeinen besprechen, und einen Fokus auf Cross-Mediale Produktion und neue Fernsehstandards wie 3D, UHDTV, Infrastrukturen und Standards legen.

Weitere Infos zum Thema bei der EBU

Webinar “Beyond HD”

Webinar “Beyond HD”

Session date: Friday, 23. November 2012
Starting time: 14:00, Europe Time (Paris, GMT+01:00)
Duration: 1 hour
Presenters: Hans Hoffmann

While many broadcasters remain focused on rolloing out their HDTV services, the industry is looking to an even more immersive future. This free webinar, following on from that of September 2011, will provide an update on the journey to the formats that lie Beyond HD.

Agenda
• Analysis of the six most important technology parameters for enhancing the media experience
• Update on the most recent standardization efforts in ITU-R, SMPTE, DVB and MPEG
• Investigation of the complete chain from content creation to the consumer, for both Higher Frame Rate and Ultra-HD
• What standards are still required?
• Latest activities from EBU BeyondHD Project Group, including new test content for UHD-1 and 3D at 1080p/50 per eye.

Presenter
Dr Hans Hoffmann Head of the unit on Media Fundamentals and production technology in the EBU Technology and Innovation Department. He has led a number of international projects of the EBU in the area of file based production, HDTV and beyond, 3DTV, and digital workflows. He is also very much involved in the SMPTE, and other standardization organizations. Currently, he is the Engineering Vice President of the SMPTE.

Link to Webinar

Video-Konvertierung mit FFMPEG

FFmpeg ist eine Sammlung von OpenSource-Software-Tools zum Konvertieren von Digitalem Video- und Audiomaterial in verschiedene Codec- und Containerformate. Neben dem Programm “ffmpeg”, das für Windows, Linux und MacOS für die Kommandozeile zur Verfügung steht, steht mit libavcodec eine Programmierbibliothek (API) für GCC-Compiler zur Verfügung.

Achtung!

Der Versionsstand verschiedener ffmpeg-Versionen ist sehr unterschiedlich. Es sollte eine Version ab mind. 2012 oder 2013 eingesetzt werden, da erst damit korrekte h264/mp4-Files erzeugt werden können. Mit älteren Versionen wurde standardmäßig “MPEG4 V.1” erzeugt, das nicht kompatibel zu iPhone, Flash oder HTML5 ist. Grund: der File-Container ist MP4, auch “ISO File Format” (ISOFF) genannt. In dem Container wird aber das codierte Videoformat “MPEG4 Video” gespeichert (Codec).
Für Kompatibilität den o.g. Plattformen muss das Codecformat H.264 verwendet werden. ITU H.264 ist identisch mit ISO-Format MPEG4 AVC, Advanced Video Coding.

Anwendungsbeispiele

Umwandlung eines AVI-Files in ein MPEG4/MP4-File:


ffmpeg -i input.avi output.mp4

Befehlszeile mit expliziter Codec-Angabe zum Umwandeln in H264/MP4:


ffmpeg -i input.avi -vcodec libx264 -vprofile main output.mp4

Was bedeuten die weiteren Optionen?


-vcodec libx264 verwendet den freien H.264-Codec "x264"
-vprofile main verwendet das "Main-Profile" aus dem H.264 Standard

Welche Profile gibt es noch?

-vprofile baseline

verwendet das “Baseline Profile”, was ohne B-Frames komprimiert


-vprofile high

ist der Standard-Wert, der aber nicht zu allen Geräten kompatibel ist.

Einstellen der Qualität (Bitrate)

Die Bitrate wird über die Option “-b” eingestellt. In aktuellen ffmpeg-Versionen wird die Bitrate für den Video- oder Audioanteil getrennt über die Option “-b:v” eingestellt.

Beispiel:


ffmpeg -i input.avi -b:v 2000k -b:a 128k output.mp4

Änderung der Bildgröße

  • Skalierung

    Option “-s WIDTHxHEIGHT”

    Beispiel:

    ffmpeg -i input.avi -s 640x480 output.mp4

  • Crop (Abschneiden/Balken entfernen)


    ffmpeg -i INFILE -vf crop=640:360:0:60 ... OUTFILE

    crop : Operation: Ausschneiden
    640:360 : die Größe (Dimension) WIDTH:HEIGHT des Resultats
    0:60 : der Offset X:Y des Ausschnitts von der oberen linken Ecke
    des Eingangsmaterials (INFILE)

  • Pad (Balken einfügen)

    INFILE sei ein 16:9-formatiger Film der Größe 640×360, der mit 60 Pixel hohen Balken oben und unten auf 4:3-Format gebracht werden soll. Kommando:


    ffmpeg -i INFILE -vf pad=640:480:0:60 ... OUTFILE

    pad : Operation: Auffüllen
    640:480 : die Größe (Dimension) WIDTH:HEIGHT des Resultats (OUTFILE)
    0:60 : der Offset X:Y des Films von der oberen linken Ecke des Resultats

    Software-Download

    Weitere Links:

  • Hier findet sich eine lauffähige Version für Windows. (Stand Mai 2013)
  • ffmpeg-Homepage
  • Aktuelle Win32-Builds
  • Streaming und Progressive Download – Grundlagen

    Durch den Erfolg von Youtube usw. hat sich Web-Video und Web-Streaming mittlerweile als Standardtechnologie etabliert.

    Allerdings kann man nicht in jedem Fall von echtem Streaming sprechen.

    Progressive Download (“Quasi-Streaming”)

    Video-Datei liegt auf einem herkömmlichen Webserver (z.B. Apache)
    Download und gleichzeitiges Abspielen über HTTP
    Das gesamte Video muss heruntergeladen werden um auch das Ende ansehen zu können (Workarounds möglich).
    In der Regel entsteht höherer Traffic, da mehr und schneller heruntergeladen als tatsächlich angesehen wird.

    Protokoll: HTTP

    Beispiel-URL: http://example.com/testvideo.mp4

    Streaming

    Es werden spezielle Streaming Server benötigt, z.B. Flash Media Server, IIS, Wowza
    Der Zuschauer kann Vor- und Zurückspringen ohne den gesamten Inhalt herunterladen zu müssen.
    Es wird nur der Inhalt übertragen, der tatsächlich angesehen wird.

    Protokolle: RTMP (Flash), RTSP, MMS (WindowsMedia)

    Beispiel-URL: rtsp://example.com/testapp/teststream

    Smooth Streaming / Segmented Streaming

    In diesem Fall wird ein aufwendiger Streaming-Server verwendet, der das Material in Einzelteilen (“Chunks”) ausliefert. Der Player allerdings sieht nur eine “einfache” Playlist aus HTTP-Einzelteilen, die über HTTP-Streaming abgespielt werden.
    Dieses Prinzip wird beim sog. Cupertino-Streaming für iOS (iPhone/iPad/iPod) sowie bei SmoothStreaming mit Microsoft Silverlight eingesetzt.

    Beispiel-URL: http://example.com/testvideo.m3u8

    2D-Video in 3D Umwandeln AviSynth

    Wie in der c’t 6/10, S. 116 sowie im Sonderheft Multimedia vorgestellt, lässt sich mit Hilfe eines einfachen Avisynth-Skriptes ein 3D-Video-Effekt aus einem 2D-Film simulieren.
    Der Effekt basiert auf dem Pulfrich-Effekt.
    Es handelt sich letztlich um eine optische Täuschung, die aber verblüffende Ergebnisse erzielen kann.

    Anliegend eine speziell erstellte AviSynth-Version 2.5.8 MT inkl. der notwendigen Plugins MVTools und MT.

    Beispielskripte finden sich nach der Installation unter %Programme%\AviSynth\Examples

    Weitere Infos zu Avisynth hier.

    AviSynth

    AviSynth ist ein leistungsfähiges Programm für die sktiptbasierte Nachbearbeitung von Videos.
    Es bietet fast unendlich viele Wege ein Video zu schneiden und zu bearbeiten.

    AviSynth arbeitet als Frameserver für Videos. Dieser ermöglicht die Weitergabe einer virtuellen
    Video-Datei an einen Player, Encoder oder ein anderes Programm zur weiteren Bearbeitung.

    Das Tool arbeitet skriptbasiert ohne grafische Oberfläche. Die Video-Skripte werden im AVS-Format gespeichert. Die AVS-Dateien werden von anderen Programmen wie Media Playern als normale Videodatei im AVI-Format interpretiert, die aber nur emuliert wird.

     

    http://avisynth.org/oldwiki/index.php?page=AviSynth+Deutsch

    http://de.wikipedia.org/wiki/AviSynth

     

    Beispiele in diesem Blog:

    Anzeige von Bewegungsvektoren in Videos

    Umwandlung von 2D-Videos nach 3D

     

    WordPress Appliance - Powered by TurnKey Linux