Haupt >> Medien >> Video

Video

Hilfe zu Videos auf Wikipedia finden Sie unter Wikipedia: Medienhilfe

Video ist die Technologie der elektronischen Erfassung, Aufzeichnung, Verarbeitung, Speicherung, Übertragung und Rekonstruktion einer Folge von Standbildern, die bewegte Szenen darstellen. Die Videotechnologie wurde zuerst für Fernsehsysteme entwickelt, wurde jedoch in vielen Formaten weiterentwickelt, um eine Videoaufzeichnung für Verbraucher zu ermöglichen. Videos können auch über das Internet als Videoclips oder Streaming-Media-Clips angesehen werden Computer überwacht.

Video ist anders als Film , die ein bewegtes Bild als Folge von Standbildern fotografisch festhält.



Beschreibung

  Analoger Videostandard: hellgrün - NTSC, gelb - PAL oder Umschaltung auf PAL, orange - SECAM, oliv - keine Angabe   Vergrößern Analoger Videostandard: Hellgrün - , Gelb - , Orange - , Oliv -

Der Begriff Video (von dem Latein für 'Ich sehe') bezieht sich im Allgemeinen auf mehrere Speicherformate für bewegte Bilder: digitale Videoformate, einschließlich DVD , QuickTime und MPEG-4; und analoge Videobänder, einschließlich VHS und Betamax. Video kann auf verschiedenen physischen Medien aufgezeichnet und übertragen werden: auf Magnetband, wenn es als elektrische PAL- oder NTSC-Signale von Videokameras aufgezeichnet wird, oder auf digitalen MPEG-4- oder DV-Medien, wenn es von Digitalkameras aufgezeichnet wird.

Die Videoqualität hängt im Wesentlichen von der verwendeten Aufnahmemethode und dem verwendeten Speicher ab. Digitales Fernsehen (DTV) ist ein relativ neues Format mit höherer Qualität als frühere Fernsehformate und ist zu einem Standard für Fernsehvideos geworden. (Siehe Liste der Bereitstellungen von Digitalfernsehen nach Ländern.)

3D-Video , digitales Video in drei Dimensionen, Premiere Ende des 20. Jahrhunderts. Typischerweise werden zur Erfassung sechs oder acht Kameras mit Echtzeit-Tiefenmessung verwendet 3D-Video Ströme. Das Format von 3D-Video ist in MPEG-4 Part 16 Animation Framework eXtension (AFX) behoben.

In dem Vereinigtes Königreich , Australien , und Neuseeland , der Begriff Video wird oft informell verwendet, um sich sowohl auf Videorecorder als auch auf Videokassetten zu beziehen; die Bedeutung ergibt sich normalerweise aus dem Kontext.

Eigenschaften von Videostreams

Anzahl der Bilder pro Sekunde

Bildrate , die Anzahl der Standbilder pro Zeiteinheit des Videos, reicht von sechs bis acht Bildern pro Sekunde ( fps ) für alte mechanische Kameras auf 120 oder mehr Bilder pro Sekunde für neue professionelle Kameras. Die Standards PAL (Europa, Asien, Australien usw.) und SECAM (Frankreich, Russland, Teile Afrikas usw.) spezifizieren 25 fps, während NTSC (USA, Kanada, Japan usw.) 29,97 fps spezifiziert. Film wird mit der langsameren Bildrate von 24 fps gedreht, was den Prozess der Übertragung eines Kinofilms auf Video etwas erschwert. Um die Illusion eines bewegten Bildes zu erreichen, beträgt die minimale Bildrate etwa zehn Bilder pro Sekunde.

Interlacing

Video kann interlaced oder progressiv sein. Interlacing wurde erfunden, um eine gute visuelle Qualität innerhalb der Grenzen einer schmalen Bandbreite zu erreichen. Das horizontale Abtastzeilen jedes Interlaced-Frames werden fortlaufend nummeriert und in zwei Teile unterteilt Felder : das ungerades Feld bestehend aus den ungeradzahligen Zeilen und der gleichmäßiges Feld bestehend aus den geraden Zeilen. NTSC, PAL und SECAM sind Interlaced-Formate. Abgekürzte Videoauflösungsspezifikationen enthalten oft eine ich Interlacing anzuzeigen. Beispielsweise wird das PAL-Videoformat oft als angegeben 576i50 , wo 576 gibt die vertikale Zeilenauflösung an, ich zeigt Interlacing an, und fünfzig gibt 50 Felder (Halbbilder) pro Sekunde an.

Im Laufende kontrolle Systemen aktualisiert jede Auffrischungsperiode alle Abtastzeilen. Das Ergebnis ist eine höhere wahrgenommene Auflösung und das Fehlen verschiedener Artefakte, die Teile eines stationären Bildes als sich bewegend oder blinkend erscheinen lassen können.

Ein als Deinterlacing bekanntes Verfahren kann zum Konvertieren eines Interlaced-Streams, wie z. B. analog, DVD oder Satellit, verwendet werden, um von Geräten mit progressiver Abtastung verarbeitet zu werden, wie z. B. TFT-Fernsehgeräten, Projektoren und Plasmabildschirmen. Deinterlacing kann jedoch keine Videoqualität erzeugen, die echtem Progressive-Scan-Quellmaterial entspricht.

Video Auflösung

  Vergleich der TV-Auflösungen   Vergrößern Vergleich der TV-Auflösungen

Die Größe eines Videobildes wird für digitales Video in Pixeln oder für analoges Video in horizontalen Abtastzeilen gemessen. Fernsehen in Standardauflösung (SDTV) wird als angegeben 720/704/640×480i60 für NTSC u 768/720×576i50 für PAL- oder SECAM-Auflösung. Neue High-Definition-Fernseher (HDTV) können Auflösungen bis zu 1920×1080p60 , d. h. 1920 Pixel pro Abtastzeile mal 1080 Abtastzeilen, progressiv, bei 60 Bildern pro Sekunde.

Die Videoauflösung für 3D-Video wird in Voxeln gemessen ( Volumenbildelement , die einen Wert im dreidimensionalen Raum darstellt). Beispielsweise kann eine Auflösung von 512 × 512 × 512 Voxeln, die jetzt für einfaches 3D-Video verwendet wird, sogar auf einigen PDAs angezeigt werden.

Seitenverhältnis

  Vergleich der Seitenverhältnisse gängiger Kinematografie und traditioneller Fernsehbilder (grün).   Vergrößern Vergleich der gemeinsamen Kinematographie und der traditionellen Fernsehen (grün) Seitenverhältnisse.

Das Seitenverhältnis beschreibt die Abmessungen von Videobildschirmen und Videobildelementen. Das Seitenverhältnis eines herkömmlichen Fernsehbildschirms beträgt 4:3 oder 1,33:1. Hochauflösende Fernseher verwenden ein Seitenverhältnis von 16:9 oder etwa 1,78:1. Das Seitenverhältnis eines vollen 35-mm-Filmbilds mit Tonspur (auch als 'Akademiestandard' bekannt) beträgt etwa 1,37:1.

Pixel auf Computermonitoren sind normalerweise quadratisch, aber Pixel, die in digitalen Videos verwendet werden, haben oft nicht quadratische Seitenverhältnisse, wie sie in den PAL- und NTSC-Varianten des digitalen Videostandards CCIR 601 und den entsprechenden anamorphotischen Breitbildformaten verwendet werden. Daher wird ein NTSC-DV-Bild mit 720 x 480 Pixeln mit einem Seitenverhältnis von 4:3 (dem traditionellen Fernsehstandard) angezeigt, wenn die Pixel dünn sind und mit einem Seitenverhältnis von 16:9 (was dem Standard entspricht anamorphes Breitbildformat), wenn die Pixel dick sind.

Farbraum und Bits pro Pixel

  Beispiel einer U-V-Farbebene, Y-Wert = 0,5   Vergrößern Beispiel einer U-V-Farbebene, Y-Wert = 0,5

Name des Farbmodells beschreibt die Video-Farbdarstellung. HERBST wird im NTSC-Fernsehen verwendet. Sie entspricht weitgehend der YUV Schema verwendet im PAL-Fernsehen und der YDbDr Schema, das vom SECAM-Fernsehen verwendet wird.

Die Anzahl unterschiedlicher Farben, die durch ein Pixel dargestellt werden können, hängt von der Anzahl ab Bit pro Pixel (bpp). Ein üblicher Weg, die Anzahl von Bits pro Pixel in digitalen Videos zu reduzieren, ist Chroma-Unterabtastung (z. B. 4:4:4, 4:2:2, 4:2:0).

Videoqualität

Die Videoqualität kann mit formalen Metriken wie PSNR oder mit subjektiver Videoqualität durch Expertenbeobachtung gemessen werden.

Die subjektive Videoqualität eines Videoverarbeitungssystems kann wie folgt bewertet werden:

  • Wählen Sie die Videosequenzen (die SRC ) zum Testen verwenden.
  • Wählen Sie die Einstellungen des zu bewertenden Systems (die HRK ).
  • Wählen Sie eine Testmethode, um Videosequenzen Experten zu präsentieren und ihre Bewertungen zu sammeln.
  • Laden Sie eine ausreichende Anzahl von Experten ein, vorzugsweise nicht weniger als 15.
  • Test durchführen.
  • Berechnen Sie jeweils die Durchschnittsnoten HRK basierend auf den Bewertungen der Experten.

Viele subjektive Videoqualitätsverfahren sind in der ITU-T-Empfehlung BT.500 beschrieben. Eine der standardisierten Methoden ist die Double Stimulus Impairment Scale (DSIS). In DSIS sieht sich jeder Experte an unbeeinträchtigt Referenzvideo gefolgt von einem beeinträchtigte Version des gleichen Videos. Der Experte bewertet dann die beeinträchtigte Video mit einer Skala von 'Beeinträchtigungen sind nicht wahrnehmbar' bis 'Beeinträchtigungen sind sehr störend'.

Videokomprimierungsmethode (nur digital)

Zur Komprimierung von Videostreams werden verschiedenste Methoden eingesetzt. Videodaten enthalten räumliche und zeitliche Redundanz, was unkomprimierte Videostreams extrem ineffizient macht. Allgemein gesprochen wird die räumliche Redundanz reduziert, indem Unterschiede zwischen Teilen eines einzelnen Rahmens registriert werden; Diese Aufgabe wird als bezeichnet Intraframe-Komprimierung und steht in engem Zusammenhang mit der Bildkomprimierung. Ebenso kann die zeitliche Redundanz reduziert werden, indem Unterschiede zwischen Frames registriert werden; Diese Aufgabe wird als bezeichnet Interframe-Komprimierung , einschließlich Bewegungskompensation und andere Techniken. Die gebräuchlichsten modernen Standards sind MPEG-2, verwendet für DVD und Satellitenfernsehen und MPEG-4, das für Heimvideos verwendet wird.

Bitrate (nur digital)

Bitrate ist ein Maß für die Rate des Informationsgehalts in einem Videostream. Quantifiziert wird sie anhand der Bit pro Sekunde ( bit/s ) Einheit bzw Megabit pro Sekunde ( Mbit/s ). Eine höhere Bitrate ermöglicht eine bessere Videoqualität. Beispielsweise ist VideoCD mit einer Bitrate von etwa 1 Mbit/s von geringerer Qualität als DVD mit einer Bitrate von etwa 5 Mbit/s. HDTV hat mit einer Bitrate von etwa 20 Mbit/s eine noch höhere Qualität.

Variable Bitrate (VBR) ist eine Strategie zur Maximierung der visuellen Videoqualität und Minimierung der Bitrate. Bei Zeitrafferszenen verwendet eine variable Bitrate mehr Bits als bei Zeitlupenszenen mit ähnlicher Dauer, erzielt jedoch eine konsistente visuelle Qualität. Für Echtzeit- und ungepuffertes Video-Streaming, wenn die verfügbare Bandbreite fest ist, z. Bei Videokonferenzen, die auf Kanälen mit fester Bandbreite bereitgestellt werden, muss eine konstante Bitrate (CBR) verwendet werden.

Stereoskopisch

Stereoskopisches Video erfordert entweder zwei Kanäle – einen rechten Kanal für das rechte Auge und einen linken Kanal für das linke Auge oder zwei überlagerte farbcodierte Schichten. Diese Technik der linken und rechten Ebene wird gelegentlich für Netzwerkübertragungen oder neuere 'Anaglyphen'-Veröffentlichungen von 3D-Filmen auf DVD verwendet. Einfache Rot/Cyan-Kunststoffbrillen bieten die Möglichkeit, die Bilder diskret zu betrachten, um eine stereoskopische Ansicht des Inhalts zu erhalten. Neue HD-DVD- und HD-Blu-ray-Discs werden den 3D-Effekt in farbcodierten Stereoprogrammen erheblich verbessern. Die ersten im Handel erhältlichen HD-Player werden voraussichtlich im April auf der NAB Show 2006 in Las Vegas vorgestellt. Siehe Artikel Stereoskopie und 3D-Film.

Videoformate

Videoanzeigestandards Standards für Videoverbindungen
  • Neu digital:
    • ATSC (USA, Kanada usw., Komitee für fortgeschrittene Fernsehsysteme )
    • DVB (europäisch, Digitale Video Übertragung )
    • ISDB (japanisch, Integrierte Dienste Digitaler Rundfunk )
  • Alte Analogie:
    • MAC (Europa – veraltet)
    • MUSE (japanisches analoges HDTV)
    • NTSC (USA, Kanada, Japan usw.)
    • PAL (Europa, Asien, Australien usw.)
      • PALplus (PAL-Erweiterung. Nur Europa)
      • PAL-M (PAL-Variante. Brasilien )
    • SECAM (Frankreich, ehemalige UdSSR, Zentralafrika)
  • Composite-Video (1 RCA oder BNC)
  • Component-Video (3 RCA oder BNC)
    • D4-Videoanschluss (neu für HDTV)
  • S-Video (ab Getrenntes Video , 1 Mini-DIN)
  • SCART (in Europa verwendet)
  • DVI (nur unkomprimiertes Video). HDCP optional
  • HDMI (unkomprimiertes Video und Audio). HDCP obligatorisch.
  • HF-Anschlüsse (von Radiofrequenz Koaxialstecker)
    • BNC ( Bajonett Niell-Concelman )
    • C-Stecker ( Versteckmann Verbinder)
    • GR-Stecker ( Allgemeines Radio Verbinder)
    • F-Anschluss (wird für inländische Fernsehinstallationen in den USA verwendet)
    • IEC 169-2 ( IEC-Stecker , hauptsächlich in Großbritannien verwendet)
    • N-Anschluss ( Niell Verbinder)
    • TNC-Anschluss ( Eingefädelter Niell-Concelman )
    • UHF-Stecker (z. B. PL-259/SO-239)
    • SDI und HD-SDI
  • VGA-Anschluss (DB-9/15 bzw Mini-Sub D15 )
  • Mini-VGA (wird für Laptops verwendet)

Analoge Bandformate (siehe Analoges Fernsehen)

Digitale Bandformate (Siehe Digitalvideo)

  • Ampex
  • SEIN ( BBC experimentelles Format ca. 1958)
  • U-matic ( Sony )
  • Betamax (Sony)
  • betacam
  • Betacam SP
  • 2' Quadruplex-Videoband (Ampex)
  • 1' Typ C Videoband (Ampex und Sony )
  • VCR, VCR-LP, SVR
  • VHS (JVC)
  • S-VHS (JVC)
  • VHS-C (JVC)
  • Video 2000 (Philips)
  • Video8
  • Video Hi8
  • D1 ( Sony )
  • D2 ( Sony )
  • D3
  • D4
  • D5-HD
  • digitale betacam ( Sony )
  • Betacam IMX ( Sony )
  • HDV
  • ProHD (JVC)
  • D-VHS (JVC)
  • DV
  • MiniDV
  • MicroMV
  • Digital8 ( Sony )

Speicherformate für optische Datenträger

Digitale Kodierungsformate

  • DVD (war Super Density Disc, DVD Forum)
  • Laserdisc (alt, MCA und Philips)
  • Blu-Ray Disc ( Sony )
  • Enhanced Versatile Disc (EVD, von der chinesischen Regierung gefördert)
  • HD-DVD (Hitachi und Toshiba)
  • CCIR 601 (IT-T)
  • M-JPEG (ISO)
  • MPEG-1 (ISO)
  • MPEG-2 ( ITU-T + ISO)
  • MPEG-4 (ISO)
  • H.261 (ITU-T)
  • H.263 (ITU-T)
  • H.264/MPEG-4 AVC (ITU-T + ISO)
  • VC-1 (SMPTE)
  • Ogg-Theora