Jede neue Videokamera wird mit einer verblüffenden Liste von Aufzählungspunkten, Spezifikationen und Funktionen geliefert, um zu erklären, warum sie besser ist als alles andere, aber was bedeuten sie alle und wie wichtig sind sie tatsächlich?
Viele der Dinge, nach denen Sie in einer Standbildkamera suchen, sind auch für Videos wichtig, insbesondere Dinge wie Sensorgröße und ISO-Bereich. Die Videoaufnahme bietet jedoch eine Reihe weiterer Aspekte und technischer Aspekte, die darüber hinausgehen. Hier finden Sie eine Anleitung zu einigen der Fachbegriffe, auf die Sie wahrscheinlich stoßen, und zu den tatsächlichen Bedeutungen.
Video Auflösung
12K, 8K, 6K, C4K, 4K UHD, FHD, HD … es gibt jetzt so viele verschiedene Auflösungen! HD ist die alte "Standard-HD" mit einer Bildbreite von 1280 Pixel, während FHD "FullHD" mit der größeren und am weitesten verbreiteten Breite von 1920 Pixel ist. Danach gibt die Zahl die ungefähre Bildbreite in Pixel an, sodass 4K ein Video mit einer Breite von 4.000 Pixel, 6K ein Video mit einer Breite von 6.000 Pixel usw. ist. Trotz der Schlagzeilen über 6K, 8K und darüber hinaus ist 4K die universellste aktuelle Auflösung und für die meisten Zwecke immer noch sehr hoch.
Seitenverhältnisse
Das Seitenverhältnis ist die Breite des Videorahmens gegenüber seiner Höhe. Dies ist besonders wichtig für Videos, bei denen die Proportionen des Videos mit dem Bildschirm oder der Anzeige übereinstimmen sollen, auf der es angezeigt wird. Das bei weitem häufigste Seitenverhältnis ist 16: 9 (16 Einheiten breit und 9 hoch). Dies wird von fast allen gängigen Videomodi von Kameras, Haushaltsfernsehgeräten und Computermonitoren verwendet. Es gibt breitere Verhältnisse als diese und werden in Kinoproduktionen verwendet. Cinema 4K (C4K oder DCI 4K) hat ein etwas breiteres Seitenverhältnis als normales 4K-UHD und wird bei einigen Kameras angeboten. Es gibt viel breitere Filmverhältnisse als diese, die nur in der Filmindustrie verwendet werden.
Anamorphotische Linse
Dies ist eine spezielle Art von Objektiv, die häufig verwendet wird, wenn Filme mit festen Filmgrößen aufgenommen wurden, um ein breites Bild horizontal zu quetschen und auf einen engeren Filmbereich zu passen. Eine andere anamorphotische Linse würde verwendet, um den Film zu projizieren oder auf andere Weise anzuzeigen und ihn wieder auf die richtigen Proportionen auszudehnen. Anamorphotische Objektive feiern ein Comeback im digitalen Video, da sie eine Möglichkeit bieten, viel breitere Szenen aufzunehmen, als dies sonst auf den Kamerasensor passen würde. Sie erzeugen auch optische Effekte wie eliptische Bokeh-Formen und streifige Reflexe, die viele Kameramänner lieben.
Pflanzen und Sensorgrößen
Die Sensorgröße ist für Videos ebenso wichtig wie für Standbilder, da größere Sensoren eine bessere Qualität erzielen, insbesondere bei schlechten Lichtverhältnissen, und eine geringere Schärfentiefe für einen „filmischeren“ Effekt bieten. Abhängig von der Sensorauflösung, der verwendeten Bildrate und den Verarbeitungsfunktionen der Kamera kann eine Kamera beim Aufnehmen von Videos möglicherweise nicht immer die gesamte Breite des Sensors nutzen. Einige Vollbildkameras können beispielsweise nur zugeschnittene Videos mit einem kleineren zentralen Bereich des Sensors aufnehmen. Es gibt eine allgemeine Tendenz zu Vollbildsensoren in Videos, bei denen früher das Super 35-Format (ungefähr APS-C-Größe) der Standard war, das weiterhin weit verbreitet ist und aus diesen Gründen häufig bei Vollbildkameras als "Zuschneidemodus" bereitgestellt wird oben erklärt.
Pixel Binning vs Oversampling
Einige Videokameras sind mit Sensoren ausgestattet, die genau die gleiche Auflösung in Pixel haben wie das aufgenommene Video. Bei Kameras, die sowohl Standbilder als auch Videos aufnehmen, ist die Sensorauflösung jedoch häufig viel höher als für Videos erforderlich. Sie benötigen beispielsweise nur einen 12-Megapixel-Sensor, um 4K aufzunehmen. Dies lässt den Herstellern drei Möglichkeiten:
1) Nehmen Sie zugeschnittenes Video auf Verwenden Sie einen kleineren Bereich des Sensors mit den gleichen Pixelabmessungen wie das Video. Dies erfordert die geringste Verarbeitung, verringert jedoch den Blickwinkel Ihrer Objektive.
2) Verwenden Sie "Pixel Binning". oder „Zeilenüberspringen“, um unerwünschte Pixel zu kombinieren oder zu verwerfen - dies wird im Allgemeinen als eher unbefriedigender Low-Tech-Ansatz angesehen.
3) Verwenden Sie "Oversampling". Videobilder mit der vollen Auflösung des Sensors aufzunehmen und sie dann im laufenden Betrieb auf die erforderliche Videoauflösung herunterzusampeln - dies wird als die beste Qualität angesehen und schneidet das Videobild nicht ab, erfordert jedoch mehr Verarbeitungsleistung.
Interlaced versus Progressive
In den alten Tagen des Rundfunkfernsehens, als die Signalbandbreite begrenzt war, wurde Interlacing verwendet, um Videobilder in zwei Teilen zu übertragen, einen mit ungeraden und einen mit geraden Zeilen, und diese dann auf dem Fernsehbildschirm zu „verschachteln“. Es hat gut genug funktioniert, aber Sie können das Interlacing in Standbildern oder digitalisierten alten Fernsehprogrammen leicht erkennen. In den Anfängen des digitalen Videos verwendeten viele Kameras immer noch Interlacing, um die zu diesem Zeitpunkt begrenzte begrenzte Verarbeitungsleistung optimal zu nutzen. Jetzt ist jedoch fast jedes Video "progressiv", wobei jedes Videobild vollständig erfasst wird. Die Qualität ist viel besser und Sie erhalten nicht mehr den schrecklichen gestreiften Interlacing-Effekt. Wenn Sie nach einem Videoformat ein "p" sehen, z. 1080p oder eine Bildrate von 30p bedeutet progressive Aufnahme, während „i“ Interlaced-Aufnahme bedeutet.
Bildraten
Damit Videos flüssig aussehen, ist eine Aufnahme- und Wiedergabegeschwindigkeit von 24 bis 30 Bildern pro Sekunde erforderlich. 24 fps sind in der Kinematographie beliebt, 25 fps werden für Fernseh- und Wiedergabegeräte in Großbritannien und vielen europäischen Gebieten und als Teil des alten PAL-Standards verwendet und 30 fps in den USA und anderen Gebieten wie im alten NTSC-Standard. Videografen wählen häufig die Bildrate entsprechend dem Gebiet, in dem sie sich befinden. Bei der digitalen Verteilung und Wiedergabe verlieren die Unterschiede jedoch zunehmend an Bedeutung, ebenso wie die Unterschiede zwischen dem PAL- und dem NTSC-System. Kameras bieten ein Vielfaches dieser Bildraten für Zeitlupeneffekte. Eine Aufnahme mit 60 Bildern pro Sekunde und eine Wiedergabe mit 30 Bildern pro Sekunde ergeben beispielsweise einen 2-fachen Zeitlupeneffekt. Hohe Bildraten sind ein Verkaufsargument für Videokameras, sind jedoch prozessorintensiv und können mit niedrigeren Videoauflösungen einhergehen.
Bitrate
Bitrate gibt die maximale Datenerfassungsgeschwindigkeit einer Videokamera an und hängt mit der Videoauflösung und den Qualitätseinstellungen zusammen. Je höher die Bitrate der Kamera ist, desto besser ist die Qualität, die sie im Großen und Ganzen erfassen kann. 100 Mbit / s (Megabit pro Sekunde) sind gut, aber High-End-Videokameras bieten möglicherweise 500 Mbit / s. Bitraten sagen Ihnen nicht alles, was Sie über die Qualität einer Videokamera wissen müssen, aber sie geben Ihnen eine Vorstellung von ihrem beruflichen Status und ihrer Aufnahmeleistung.
Farbunterabtastung
Videomaterial ist sehr>
Rohes Video
Rohes Video ist wie rohes Bild in der Standbildfotografie. Die Kamera zeichnet Videos als rohe, unverarbeitete Daten und nicht als verarbeitete, sichtbare Filmdateien auf. Die Rohvideoaufnahme stellt jedoch VIEL höhere Anforderungen an die Verarbeitungsleistung und die Speicherkapazität, insbesondere bei hohen Auflösungen wie 4K und höher, sodass nur sehr hochwertige Videokameras Rohmaterial intern aufnehmen können und selbst recht fortgeschrittene Modelle möglicherweise einen externen Rekorder benötigen.
Protokollmodi
Die Protokollmodi sind eine Art Mittelweg für die Flexibilität von Rohvideos. Sie erfassen Videos, die klanglich sehr flach sind, aber einen besonders hohen Helligkeitsbereich erfassen, mit dem Sie später beim Bearbeiten oder „Bewerten“ des Videos arbeiten können. Protokollmodi sind ein wichtiges Pro-Feature in fortgeschritteneren Kameras und erhöhen im Allgemeinen den Preis - obwohl Hersteller manchmal Protokollmodi über ein Firmware-Update hinzufügen. Wenn Sie Log-Filmmaterial bewerten, müssen Sie ein Profil anwenden, um die Töne und Farben auf ein normales Erscheinungsbild zu korrigieren, oder eine LUT (Nachschlagetabelle), um eine bestimmte filmische Farbpalette oder ein bestimmtes Erscheinungsbild zu erstellen.
Codecs vs Formate
Dies kann verwirrend sein, da es oft so klingt, als würden die Leute sie als dasselbe behandeln, aber sie sind es nicht. Im Wesentlichen ist das Video-Format der Container für Video, Audio und verschiedene Metadaten, um alles miteinander zu verbinden, während der Codec lediglich das verwendete Videokomprimierungssystem ist. Beispielsweise verwendet das Sony A7S III ein XAVC HS-Format, das den H.265-Videocodec verwendet. Das XAVC HS-Format ist Eigentum von Sony, andere Hersteller verwenden jedoch denselben H.265-Videocodec für ihre eigenen Videoformate. Das gängige MPEG-4-Format (nach der MP4-Dateierweiterung auch als MP4 bezeichnet) verwendet den ebenfalls gängigen H.264-Videocodec. Sie benötigen Container (Formate) für Videos, da diese auch Audiodateien und Metadaten speichern müssen, die der Hersteller benötigt, um proprietäre Videofunktionen für die Wiedergabe und Bearbeitung anzubieten.
• So wählen Sie eine Videokamera aus
• Beste Kameras für Vlogging
• Beste 4K-Kameras zum Filmemachen
• Beste Kinokameras
• Mikrofonjargon erklärt