Frameraten in der digitalen Videotechnik - Einführung
Technische Details rund ums Thema Frameraten
Viele verbreitete Fehleinschätzungen rühren daher, dass Frameraten gar nicht überall "nativ" angezeigt werden können. Stattdessen wird die Framerate in vielen Geräten zuerst einer Umwandlung unterzogen - und das meist auch noch auf sehr primitive Weise, nämlich nach dem Prinzip "Nächster Nachbar" (also im Wesentlichen durch Verdoppeln oder Auslassen einzelner Frames). Was der Betrachter zu sehen kriegt, hat dann mit der ursprünglichen Framerate nicht mehr so viel gemeinsam.
Häufigstes Beispiel ist, wie schon erwähnt, die Wiedergabe von Videos auf Computermonitoren, Smartphones und Tablets. Jedes dieser Geräte hat eine eigene Bildwechselfrequenz (meist 60,00 oder 59,94 fps - manchmal aber auch ganz andere Werte). Wenn das Video nicht eine Framerate hat, die der Bildfrequenz des Monitors oder einem ganzzahligen Teiler davon entspricht, kann es nicht mit seiner Original-Framerate gezeigt werden.
Doch selbst wenn Monitorfrequenz und Video-Framerate übereinstimmen, garantiert das noch keine hundertprozentig ruckelfreie Wiedergabe, denn die Ausgabe der Grafikkarte des Computers und die Framerate der wiedergegebenen Videodatei sind nicht fest miteinander synchronisiert. Sobald es in den Rechenabläufen innerhalb des Computers zu kleinen Unregelmäßigen kommt (was besonders an leistungsschwächeren Systemen dauernd passiert, aber auch an Hochleistungssystemen immer wieder mal vorkommt), werden einzelne Frames "verschluckt" und es entsteht ein Microruckler.
Es gibt technische Ansätze von Seiten der Grafikkartenhersteller, das Problem künftig in den Griff zu bekommen. Eine Möglichkeit ist, den Monitor mit einer sehr hohen Bildwechselfrequenz (über 200 Hz) zu beschicken. Dann erzeugt jeder Frame des Videos gleich mehrere aufeinanderfolgende Erneuerungen des Monitor-Bildinhaltes, so dass kleinere Abweichungen nicht mehr ins Gewicht fallen. Ein anderes Konzept sieht vor, Monitoren überhaupt keine feste Frequenz mehr zuzuteilen, sondern über die Grafikkarte zu jeder beliebigen Zeit neue Bildinhalte zu schicken, so dass man beliebige Video-Frameraten unverändert am Monitor sehen könnte. (Dann
können sogar auf demselbe Monitor nebeneinander zwei Videos in unterschiedlichen Frameraten laufen, und beide wären originalgetreu und ruckelfrei.) Aber all das sind Ideen für künftige Computer- und Monitorstandards,
die bislang nur in herstellerspezifischen Varianten existieren (z. B. AMD
Freesync) und nur von einem Bruchteil der gebräuchlichen Hard- und Software
unterstützt werden. Es wird noch Jahre dauern bis zur weiten Verbreitung.
Das heißt jedoch nicht, dass heute eine höhere Ausgangsframerate nicht auch auf Computerbildschirmen eine flüssigere Wiedergabe bewirken könnte, denn eine Verbesserung sieht man durchaus. Aber man sieht eben nie die "wahre" Framerate, sondern immer nur das, was der Computer davon übrig gelassen hat.
Völlig anders als die Beschickung von Computermonitoren funktioniert die Kommunikation zwischen Videogeräten und Fernsehgeräten: Hier kommen echte Videosignale zum Einsatz, und es werden die übertragene Videoframerate und die Bildschirmfrequenz miteinander synchronisiert. Das funktioniert allerdings nicht mit jeder beliebigen Framerate. Stattdessen gibt es eine Reihe standardisierter Signale, die jeder Fernseher versteht. Das sind insbesondere die von den Fernsehsystemen bekannten Frameraten 59,94 und 50 fps als Halbbilder oder Vollbilder in mehreren Auflösungen. Mit diesen beiden Signalvarianten lässt sich auch jeweils die halbe Framerate (29,97 bzw. 25 fps) übertragen, indem einfach jeder Frame zweimal übertragen wird. Die meisten Fernseher verstehen zudem ohne Umwege die Film-Frameraten 24,00 und 23,976 fps als Vollbilder. (Als Notlösung für Fernseher, die noch kein 24/23,976 fps verstehen, besteht immer die Möglichkeit der Pulldown-Wiedergabe via 59,94 fps. Das ist dann allerdings - trotz Synchronisation des Signals - keine native Wiedergabe der Framerate. Man erkennt es sofort am stärkeren Ruckeln.)
Videogeräte in diesem Sinne sind z. B. DVD-Player und Blu-ray-Player, alleinstehende Videoplayer mit Festplatte oder USB-Medium, Camcorder und Fotokameras mit Videoausgang sowie Videospiel-Konsolen. Vereinzelt gibt es auch Computer, die als TV-Receiver-Ersatz oder speziell für Videoschnitt gebaut wurden und daher mit speziellen Video-Ausgangskarten ausgestattet sind. Schließt man einen Monitor an einen solchen Video-Ausgang an, erhält man ein echtes Videosignal mit allen Vorteilen für die Frameraten. Das, was oben für die Grafikkarten-Ausgabe von Computern gesagt wurde, gilt in diesem Spezialfall also nicht. (Man darf sich auch nicht von den teils identischen Schnittstellen täuschen lassen. Zum Beispiel über eine HDMI-Verbindung kann wahlweise ein Computermonitor-Signal oder ein Videosignal übertragen werden.)
Eine Garantie, dass auf Fernsehgeräten in Verbindung mit echten Videoplayern
und echter Videoverbindung die Frameraten immer nativ gezeigt werden, gibt es
allerdings nicht. Denn leider sind nicht alle wiedergebenden Geräte in der Lage, von sich aus das Ausgangssignal passend zur gerade wiederzugebenden Framerate umzuschalten. Manchmal ist dieser "fliegende Wechsel" der Signale auch von Benutzerseite gar nicht gewünscht, weil
ältere Fernseher immer ein paar Sekunden benötigen, um sich auf ein anderes Eingangssignal einzupegeln. Die so entstehenden Pausen sind je nach Häufigkeit des Programmwechsels manchmal störender als das Ruckeln, das durch die Umwandlung der Framerate entstehen kann. Zudem können Videodateien auch wilde oder variable Frameraten haben, zu denen nicht unbedingt ein Äquivalent als Standard-Videosignal existiert.
Wer sicher sein will, Videos mit ihrer originalen Framerate zu sehen, muss die Framerate der Videodatei kennen und dann das Ausgangssignal des verwendeten Videogerätes bzw. die Standard-Framerate des integrierten Videoplayers manuell wählen - wenn sein Gerät es denn zulässt.
Etwas uneinheitlich verhält es sich mit den intergrierten USB-Wiedergabefunktionen, die fast alle neueren Fernsehgeräte mitbringen.
Ob hier die Frameraten nativ gezeigt werden, hängt von der internen
Bildverarbeitung des Fernsehers ab. Während manche Geräte (insbesondere ältere
Smart-TVs) noch stur alles auf 50 Hz oder 59,94 Hz umformen (was bei
abweichenden Werten dann zu Ruckeln führt), können modernere Modelle die
Frameraten dank ihrer hohen Panel-Eigenfrequenz nahezu nativ wiedergeben.
Letzteres ist ein nicht zu unterschätzender Vorteil in der Praxis, denn man
bekommt dann sogar ungewöhnliche Frameraten (z. B. 18 fps von digitalierten
Super-8-Filmen) korrekt abgespielt; müsste man per HDMI von einem externen Gerät
zuspielen, wäre dies aufgrund der festen Videostandards gar nicht möglich.
Dasselbe Grundproblem besteht mit den Mediatheken- und YouTube-Wiedergabefunktionen moderner Smart-TVs: Auch manche von ihnen können Frameraten nicht nativ wiedergeben, sondern sind auf eine feste Framerate voreingestellt und wandeln die anderen Frameraten um, um sie passend zu machen. Hat man "Glück im Unglück", kann man diese feste Framerate zumindest durch eine allgemeine Einstellung beeinflussen (z. B. durch Definition eines Standardsignals). Wer etwa häufig Videos aus Mediatheken deutscher Sender anschaut, sollte als Standard ein 50-fps-Signal einstellen (das kann 720/50p oder 1080/50p oder auch 1080/50i sein). Dann laufen zumindest Videos mit 25 und 50 fps ohne Umwandlung der Framerate.
Die Umwandlung der Framerate im Player oder Fernseher mit dem daraus resultierenden Ruckeln ist gar nicht die einzige mögliche Verfälschung. Es gibt auch den umgekehrten Fall - also dass Filme auf dem Fernseher flüssiger laufen als es ihre Framerate eigentlich zulässt. Grund dafür ist die Bewegungsglättung heutiger Fernsehgeräte: Der Fernseher interpoliert Zwischenbilder, um Bewegungen von Filmen flüssiger erscheinen zu lassen.
Diese Funktion ist unter Filmliebhabern verpönt, weil sie Filme verfälscht und nicht mehr so zeigt, wie sie mal gedreht wurden. An fast allen neuen Fernsehgeräten ist sie aber standardmäßig aktiv und muss ggfs. erst im Menü deaktiviert werden. Sie kann dort je nach Hersteller verschiedene Namen haben, z. B. "Motion Plus", "Motion Flow", "Active Vision", "Natural Motion", "Smooth Film", "Motion Smooth" oder "True Motion".
Bleibt noch zu ergänzen, dass man bei analogen Filmvorführungen aller Art stets die reine Framerate zu sehen kriegt (meist 24 fps). Auch die Technik, die innerhalb des digitalen Kinos zum Einsatz kommt (Digital-Cinema-Server und DLP- oder LcOS-Projektor) verursacht von sich aus keine Umwandlung der Framerate und somit auch keine zusätzlichen Ruckler. Wenn der Film allerdings schon vorher fehlerhaft verarbeitet wurde (was z. B. bei laienhaft gemachten Werbespots lokaler Unternehmen immer mal wieder vorkommt), kann es auch im Kino zu Microrucklern kommen.
Wer Videos nur passiv konsumiert, hat keine große Wahl und muss die Framerate so nehmen, wie sie kommt. Wer hingegen selber filmt, kann wählen: Durch Verwendung einer bestimmten Kamera, aber häufig auch noch durch Umschaltmöglichkeiten im Menü innerhalb der Kamera, kann man die zum Filmen verwendete Framerate selber festlegen.
Es gibt mehrere Herangehensweisen, um die am besten geeignete Framerate zu finden. Dabei gibt es subjektive und künstlerische Gründe, aber auch technische.
Wie schon im ersten Teil erläutert, gibt es eine teils sehr emotionale Debatte zwischen den Fans des klassischen Kinolooks mit niedriger Framerate sowie den Fans hoher Frameraten mit deren technischen Vorteilen. Beide haben ihre Argumente. Teilweise wird auch je nach Filmgenre unterschieden; dann werden die niedrigen Framerate für fiktionale Filme gewählt, aber für Sportaufzeichnungen dann doch die hohen Frameraten bevorzugt. Im Dokumentarfilm-Bereich stehen die Vorlieben heute fast Halbe-Halbe: Manche Filmer streben auch für Fernseh-Dokumentarfilme eine Kino-ähnliche Wiedergabe mit niedriger Framerate an, andere nutzen ganz selbstverständlich die höheren Sende-Frameraten mit ihrer flüssigeren Bewegungsdarstellung.
Was die optische Wahrnehmung angeht, gibt es drei Sorten Frameraten: niedrige Frameraten bis 25 fps, hohe Frameraten ab 50 fps sowie Frameraten um die 30 fps als Zwischending. Von daher erfordet ein bestimmter Look nicht unbedingt eine ganz spezifische Framerate, sondern es genügt, eine Framerate bestimmter Größenordnung zu nehmen. Die feinere Unterscheidung kann man dann von technischen und organisatorischen Überlegungen abhängig machen, die in den nächsten Abschnitten behandelt werden.
Zu den niedrigen Frameraten zählen 23,976 und 24,00 und 25 fps. Diese drei sind, wenn sie jeweils nativ wiedergegeben werden, extrem ähnlich und vom menschlichen Auge nicht zu unterscheiden. Man kriegt also mit allen dreien den gleichen Look. (Ein anderes Thema ist die Wiedergabe von 23,976 fps vial Pulldown in einer 59,94-fps-Umgebung, weil sie ein stärkeres Ruckeln mit sich bringt als die native Wiedergabe.)
29,97 und 30,00 fps wirken bei nativer Wiedergabe einen Tick flüssiger als die niedrigen Frameraten. Der Unterschied ist aber nicht riesig. Die Wahrnehmung von 29,976/30 fps liegt also näher an den niedrigen als an den hohen Frameraten; unerfahrene Betrachter können native 24 und 30 fps bei Einzelvorführung noch nicht mal zuordnen, aber im direkten Vergleich wird der Unterschied dann doch für jedermann sichtbar.
50 und 59,94 und 60,00 fps wirken deutlich flüssiger als die niedrigen Frameraten und stellen quasi deren Gegenstück dar. Untereinander sind auch sie vom menschlichen Auge nicht mehr unterscheidbar. Generell werden die Unterschiede ab 50 fps immer geringer: Selbst 100 oder 120 fps sehen auf den ersten Blick kaum noch anders aus als 50/60 fps. (Es gibt allerdings technische Vorteile der noch höheren Frameraten, die für bestimmte/seltene Motive eine Rolle spielen können.)
Wenn 30 fps gegenüber 24 fps von Beobachtern als deutlich flüssiger beschrieben werden, kann das daran liegen, dass man Frameraten häufig gar nicht nativ zu sehen kriegt: Besonders auf 60-Hz-Computermonitoren sehen 24, 23,976 und 25 fps sehr viel ruckeliger aus als sie eigentlich sind, während 29,97 und 30 fps dort aufgrund des ganzzahligen Teilers beinahe ruckelfrei wiedergegeben werden können. Der größte Unterschied kommt also gar nicht von den Frameraten selber, sondern von deren Verarbeitung in der Wiedergabekette.
Wenn man speziell fürs Internet filmt, kann es für Filmlook-Fans sinnvoll sein, statt 23,976 oder 24 fps lieber 29,97 fps zu verwenden. Denn unter Berücksichtung der unvermeidlichen Frameraten-Umwandlung kommen auf einem Computermonitor 29,97 fps dem, was man aus dem Kino kennt, wesentlich näher als die niedrigeren Frameraten.
Was die Beurteilung niedriger Frameraten auf Computermonitoren angeht, sind die geprägten Sehgewohnheiten in 60-Hz-Ländern übrigens etwas andere als in 50-Hz-Ländern: Bewohner von 60-Hz-Regionen mussten Kinofilme im Fernsehen jahrzehntelang mit einer ruckeligen 3:2-Pulldown-Umsetzung anschauen, die der heutigen Wiedergabe von 24 fps auf Computermonitoren sehr ähnlich ist. Daher finden z. B. viele Amerikaner dieses Ruckeln nach wie vor "normal". Dagegen wir Europäer haben Filme im Fernsehen immer in 25p und daher mit vergleichsweise wenig Ruckeln zu sehen bekommen, so dass uns das starke Ruckeln auf dem Computermonitor tendenziell eher stört. Im Kino sehen Filme zwar auf der ganzen Welt gleich aus, aber rein statistisch sieht man doch wesentlich häufiger einen Film im Fernsehen als im Kino.
Manchmal werden gleichzeitig mehrere Kameras benutzt, deren Aufnahmen hinterher zu einem gemeinsamen Film zusammengeschnitten werden sollen. Typischerweise ist das bei Veranstaltungen und Bühnenaufführungen der Fall. Auch nach Urlaubsreisen mit mehreren Filmern könnte man auf die Idee kommen, das Material zusammenzuwerfen. In all diesen Fällen ist es wichtig, vorab eine gemeinsame Framerate zu finden. Denn andernfalls muss ein Teil des Materials beim Schnitt einer qualitätsmindernden Wandlung der Framerate unterzogen werden. Das sollte man, so irgend möglich, vermeiden.
Ideal ist, wenn alle Kameras sich auf Vollbildformate mit derselben Framerate einstellen lassen. Eine Mischung von Vollbild- und Halbbildformaten geht auch; solange die eigentliche Framerate die gleiche ist, funktioniert das recht gut (z. B. ein 50p-Format zusammen mit einem 50i-Format). Meist wird man das finale Schnittprojekt dann allerdings in Halbbildern (in diesem Beispiel 50i) anlegen, um die eher minderwertige Erzeugung von Vollbildern im Schnittprogramm zu vermeiden.
Ebenfalls seine Tücken hat das Zusammenfügen von Aufnahmen mit doppelter/halber Framerate, z. B. 25p und 50p. Unauffällig ist das nur, wenn man den Schnitt dann in einem Schnittprojekt mit der niedrigeren Framerate vornimmt - in diesem Beispiel also 25p. Will man jedoch die Bewegungsinformation der Aufnahmen mit hoher Framerate nicht verlieren, muss man mit der höheren Framerate (hier 50p) schneiden und in Kauf nehmen, dass die 25p-Anteile des Films dann eine etwas weniger flüssige Anmutung haben. 25p wird durch das Verarbeiten in einem 50p-Projekt zwar nicht ruckeliger (die Anmutung bleibt genau dieselbe wie innerhalb eines 25p-Projektes), aber Im Direktvergleich fällt der Unterschied eher auf.
Wenn die Kameras zwar nicht die gleiche, aber zumindest ähnliche Frameraten haben (23,976 und 25 fps) könnte man auch eine Wandlung durch Beschleunigen bzw. Verlangsamen akzeptabel finden. Vorausetzung ist, dass die Kameras nicht synchron dasselbe Geschehen aufnehmen (da würden die Laufzeitunterschiede die Verarbeitung z. B. im Mehrkamera-Modus des Schnittprogramms erschweren). Außerdem kann es Probleme mit der Tonhöhe geben, weil die Zuschauer nach jedem Umschnitt den Direktvergleich hören. Am ehesten funktioniert es, wenn man den Ton einer der beiden Kameras nicht benötigt. Je nach Inhalt kann auch eine tonhöhengleiche Beschleunigung/Verlangsamung in Betracht kommen - aber das erhöht dann schon wieder den Aufwand.
Wenn das Ausgabemedium oder die Ausgabemedien schon feststehen, wird man die Wahl der Framerate primär hieran festmachen. Das trifft insbesondere auf die unflexiblen Medien zu, z. B. wenn man für einen Fernsehsender arbeitet. Sender in Europa brauchen 50 oder 25 fps und Sender in Amerika brauchen 23,976 oder 59,94 fps (29,97 fps geht zwar auch, ist inzwischen aber nicht mehr so üblich).
Zwar kann man jede Framerate in jede andere wandeln, so dass zwischen internationalen Fernsehsendern ein Programmaustausch möglich ist, aber das ist fast immer mit Qualitätskompromissen behaftet und daher nur zweite Wahl. Auftragsarbeiten für einen bestimmten Sender müssen stets die für diesen Sender nativ passende Framerate haben (und meist auch noch viele weitere technische Anforderungen erfüllen - die aber nicht Gegenstand dieses Artikels sind).
Soll der Film auf Blu-ray und DVD vermarktet werden, orientiert man sich ebenfalls an den örtlichen Fernsehstandards, weil es dann am wenigsten Kompatibilitätsprobleme mit vorhandenen Playern und Fernsehern gibt. In Europa lassen sich oft auch die 59,94-fps-basierten Formate abspielen, aber das muss im Einzelfall geklärt werden (siehe auch "Videokassette, DVD und Blu-ray").
Ein Ausweg, falls der Film international vermarktet werden soll, können die "internationalen" Blu-ray-Frameraten 24,00 und 23,976 fps sein. Bei Bedarf lassen sich diese Frameraten dann auch fürs amerikanische Fernsehen oder fürs europäische Fernsehen nutzen, indem man die Geschwindigkeit leicht anpasst (wie sonst für Spielfilme üblich). Voraussetzung ist natürlich, dass man gestalterisch mit der niedrigen Framerate auskommt und nicht aus optischen Gründen eine höhere Framerate haben will.
Sehr viel flexibler in Sachen Frameraten sind Videos, die online (z. B bei YouTube) angeboten werden sollen. Hier kann man prinzipell jede beliebige Framerate verwenden. Wenn man jedoch davon ausgeht, dass Online-Videos immer noch zum größten Teil auf 60-Hz-getakteten Monitoren angeschaut werden, könnte man auf die Idee kommen, für die Online-Veröffentlichung gezielt in 59,94 oder 60,00 fps zu drehen. (Wenn man mehr "Filmlook" durch eine niedrigere Framerate erzielen will, würde man entsprechend 29,97 oder 30,00 fps nehmen.) Diese Frameraten laufen auf üblichen Computermonitoren besser und flüssiger als andere.
Tatsächlich zeigt sich dieser Vorteil nicht nur in der Theorie, sondern auch in praktischen Tests (siehe "Testvideos - YouTube-Versionen").
Solange allerdings eine Nutzung der Videos auf mehreren Ausgabemedien geplant ist (also neben der Online-Veröffentlichung auch Blu-ray, DVD, Fernsehen usw.), muss man den anderen in der Abwägung oft den Vorrang geben.
Wer langfristig plant, sollte im Hinterkopf haben, dass es auch YouTube-Wiedergabemöglichkeiten mit anderen Taktungen als 60 Hz gibt, z. B. die YouTube-Apps in Smart-TVs, die in Europa typischerweise auf 50-Hz-Standard eingestellt sind und daher ein 50-fps-Video sogar ruckelfreier wiedergeben als ein 60-fps-Video.
Das menschliche Auge ist relativ träge und toleriert auch Lichtquellen, die nicht kontinuierlich leuchten. Manche Lichtquellen leuchten z. B. getaktet oder in einem Sinusrhythmus. Ab ca. 80 Helligkeitsphasen pro Sekunde nehmen selbst empfindliche Augen kein Flimmern mehr wahr; weniger empfindliche Augen begnügen sich schon mit 60 Helligkeitsphasen pro Sekunde.
Dummerweise reagieren Kameras auf solche Lichtquellen etwas anders als Menschen: Die Zahl der Helligkeitsphasen pro Sekunde auf der einen Seite kommt in Konflik mit Framerate und Belichtungszeit der Kamera auf der anderen Seite. Wenn es dumm läuft, bekommen einzelne Frames dann unterschiedlich viel Licht ab und es entsteht im laufenden Film ein Flimmern.
Man hat grundsätzlich zwei "Regelschrauben", um das Problem anzugehen: die Framerate und die Belichtungszeit. Mindestens eines davon muss zur Frequenz der Lichtquelle passen, wenn der Film nicht flimmern soll. (Warum das so ist, wird hier ausführlich und anschaulich erklärt.)
Da man die Belichungszeit nicht immer frei festlegen kann, ist die Wahl einer passenden Framerate die primäre Methode der Flimmervermeidung. Passt die Framerate, bleibt man mit der Wahl der Belichtungszeit relativ frei bzw. kann diese nach anderen Kriterien festlegen. Aber falls die Framerate schon aus anderen Gründen feststeht (z. B. für ein bestimmtes Ausgabemedium), kann man immer noch mit der Belichtungszeit ausgleichen.
Die meisten Lichtquellen flimmern gar nicht und verursachen daher auch keine Probleme. Praktisch flimmerfrei sind z. B. Sonne/Tageslicht, Glühlampen und Halogenlampen ab ca. 60 Watt, gängige Energiesparlampen sowie LED-Leuchtmittel mit elektronischem Vorschaltgerät.
Schwächere Glühlampen (besonders solche mit 25 Watt und weniger) können jedoch schon sichtbar flimmern. Noch wesentlich stärker flimmern die klassischen Leuchtstoffröhren mit einfachem Vorschaltgerät und Starter, wie sie seit Jahrzehnten in vielen Büros, Kellerräumen, Kaufhäusern/Supermärkten und Flughafen-Wartehallen zum Einsatz kommen. Neuerdings gibt es außerdem viele billige LED-Leuchtmittel, die ähnlich stark flimmern wie Leuchtstoffröhren. (Leider sieht man das den Leuchtmitteln mit bloßem Auge nicht an und es steht auch kein entsprechender Hinweis drauf. Sogar vom selben Hersteller kann es flimmernde und nicht-flimmernde Exemplare geben.)
Alle die kritischen Lichtsorten flimmern (mit seltenen Ausnahmen) in Abhängigkeit von der örtlichen Netzfrequenz. Da sich die Netzfrequenz auf eine komplette Sinusphase des Wechselstroms bezieht, ist die effektive Licht-Flimmerfrequenz immer doppelt so hoch wie die nominelle Netzfrequenz, also 100-maliges Aufleuchten pro Sekunde in einem 50-Hz-Stromnetz und 120-maliges Aufleuchten pro Sekunde in einem 60-Hz-Stromnetz.
Will man Flimmern im Video sicher verhindern, muss man Frameraten verwenden, die der Leuchtfrequenz entsprechen oder ganzzahlige Teiler davon sind. Bei den 100 Hellphasen/Sekunde im 50-Hz-Stromnetz passen 25, 50 oder 100 fps ins Raster. Bei den 120 Hellphasen/Sekunde im 60-Hz-Stromnetz funktioniert es mit 24, 30, 60 oder 120 fps. (Die NTSC-typischen Abweichungen kann man hierbei ignorieren - also es ist egal, ob man z. B. 60,00 oder 59,94 fps nimmt.)
Kann man die Framerate nicht anpassen, muss man stattdessen die Belichtungszeiten passend machen. Will man z. B. unter 60-Hz-Licht mit 50 oder 25 fps drehen, kann man 1/120 oder 1/60 Sekunde (bei 25 fps auch 1/30 Sekunde) Belichtungszeit nutzen. Wer unter 50-Hz-Licht mit 60 fps drehen will, muss die Belichtungszeit auf 1/100 Sekunde stellen. Für 30 oder 24 fps unter 50-Hz-Licht kann man statt 1/100 Sekunde auch 1/50 Sekunde verwenden.
Dasselbe Problem, das man mit Lichtquellen hat, kann auch mit Computer-Monitoren, Beamern oder Fernsehgeräten entstehen, die mit einer bestimmten Frequenz angesteuert werden. Computermonitore laufen meist mit 60 Hz (was dann tatsächlich 60 Bildwechsel pro Sekunde sind, nicht etwa 120); dasselbe gilt für Fernsehgeräte und Beamer, die gerade ein Signal aus dem Computer oder ein 60-fps-basiertes Video wiedergeben. Auch hier kann man das Flimmern durch Wahl der Framerate oder ersatzweise durch Wahl der Belichtungszeit eliminieren.
Im Extremfall kann es passieren, dass man in demselben Raum eine flimmernde 50-Hz-Lichtquelle und einen flimmernden 60-Hz-Monitor stehen hat. Wenn man beide flimmerfrei kriegen will, muss man tatsächlich beide Regelmöglichkeiten ausnutzen, also z. B. mit 50 fps und 1/60 Sekunde Belichtungszeit filmen. (In Nachrichtensendungen und Dokumentarfilmen kann man immer mal wieder flimmernde Monitore und/oder Lichtquellen sehen. Das lässt darauf schließen, dass selbst Profi-Kameraleute nicht immer mit der Thematik vertraut sind.)
Es gibt zweierlei automatische Kamerafunktionen, die das "Netzflimmern" verhindern sollen:
An manchen Kameras kann man im Menü vorgeben, unter welcher Netzfrequenz sie verwendet werden soll. Die Belichtungsautomatik versucht dann immer, Belichtungszeiten zu wählen, die damit harmonieren; das funktioniert im Prinzip gut. Es hat nur den Nachteil, dass dann stur solche Belichtungszeiten verwendet werden - auch in Situationen, wo gar nichts flimmert und die verkürzte Belichtungszeit nur Nachteile hat. Wenn z. B. bei 60 fps passend zu 50-Hz-Licht immer mit 1/100 Sekunde belichtet wird, verliert man etwas Lowlight-Fähigkeit.
Alternativ besitzen manche Kameras eine automatische Flimmer-Unterdrückung. Sie passen also nicht die Belichtungszeit an, sondern rechnen das Flimmern softwaremäßig aus dem Kamerasignal raus. Das kann sehr gut funktionieren - allerdings nur in Situationen, wo das gesamte Licht flimmert (z. B. in einem fensterlosen Raum, der durchgehend mit Leuchtstoffröhren beleuchtet ist). Bei Mischlicht muss die Automatik sich entscheiden, an welchen Bildteil sie sich anpasst - wie man in diesem Video sehr schön sehen kann. In der Praxis hat man leider sehr häufig Mischlicht, z. B. überwiegend flimmerfreies Tageslicht und stellenweise Flimmern in einer Leuchtreklame. Dann ist so eine Automatik nutzlos oder gar kontraproduktiv.
Leider gibt es auch flimmernde oder unregelmäßige Lichtquellen, die keiner üblichen Netzfrequenz und auch keinem Videostandard folgen.
Um einem (Monitor-)Flimmern mit ungewöhnlicher Frequenz beizukommen, bieten die meisten Profi-Videokameras eine Feineinstellung der Belichtungszeit ("Clear Scan"). Damit bekommt man auch Monitorfrequenzen jenseits der üblichen 60 Hz in den Griff. (Einfachere Kameras können sowas in der Regel nicht.)
Immer häufiger gibt es auch LED-Anzeigetafeln oder Auto-Rücklichter, die zum Zweck der Helligkeitsregulierung gepulst werden. Das führt mindestens zu einem starken Flimmern. Im ungünstigsten Fall, nämlich wenn die Lichtpulse große Abstände haben und die Kamera auch noch mit kurzer Belichtungszeit arbeitet, entsteht sogar ein Blinken oder weitgehendes Verschwinden des LED-Lichtes im Video, weil es dann nur noch Zufall ist, wann die Kamera-Belichtungszeit gerade ein Aufblinken der Lichtquelle "erwischt".
Gegen pulsierende LED-Lichtquellen hilft keine bestimmte Framerate und keine bestimmte Belichtungszeit. Man kann das Problem lediglich etwas eindämmen, indem man die Belichtungszeit wählt, die unter der gewählten Framerate "lückenlos" belichtet (z. B. 1/50 Sekunde bei 50 fps).
Wenn alle Optionen versagen (z. B. wenn es zu viele verschiedene Flimmerfrequenzen innerhalb desselben Bildausschnittes gibt) oder das Flimmern bei der Aufnahme schlicht übersehen wurde, kann man immer noch versuchen, es nachträglich mittels spezieller Bearbeitungssoftware herauszurechnen.
Die obigen Gründe, eine bestimmte Framerate zu verwenden, müssen gegeneinander abgewogen werden. Teilweise widersprechen sich die Argumente, so dass man Prioritäten setzen muss.
Zum Beispiel wenn man einen Urlaubsfilm in den USA dreht, könnte man auf die Idee kommen, passend zum dortigen Stromnetz mit 59,94 fps zu arbeiten; das beugt Flimmerproblemen unter bestimmten Lichtquellen vor. Zurück in Deutschland hat man dann aber ein Problem, wenn man das Video für Verwandte auf DVD brennen oder mit in Deutschland gedrehten Aufnahmen zusammenschneiden will, die vielleicht schon in 50 fps vorliegen. Am Ende wird es dann oft sinnvoller sein, auch in den USA mit 50 fps zu arbeiten und die Flimmerprobleme ggfs. durch Wahl einer passenden Verschlusszeit zu umgehen.
Ein anderes Beispiel wäre die Empfehlung für einen Video-Laien, der YouTube-Videos produzieren will. Im Hinblick aufs Ausgabemedium möchte man ihm 59,94 oder 29,97 fps empfehlen. Allerdings sind dann schon Flimmerprobleme unter hiesigen Lichtquellen absehbar, weil er als Laie meist mit Automatik filmt und die Kamera dann nicht immer "flimmerfreie" Belichtungszeiten vorwählt. Für Automatik-Filmer ist es also meist sicherer, die Framerate passend zum örtlichen Stromnetz zu wählen.
Wenn man über die Wahl der Framerate spricht, muss man natürlich auch die Themen Zeitraffer und Zeitlupe behandeln. Zunächst muss man unterscheiden zwischen echten und nachträglich gemachten Zeitanpassungen: Für echte Zeitlupen muss mit einer höheren Framerate als der späteren Wiedergabe-Framerate gedreht werden (engl. "Overcranking"). Für echte Zeitraffer benutzt man eine niedrigere als die spätere Wiedergabeframerate (engl. "Undercranking"). Alternativ kann man ganz normal gedrehtes Material benutzen und später im Schnitprogramm die Geschwindigkeit ändern - was allerdings qualitativ nicht dasselbe ist.
Echte Zeitlupen zeichnen sich dadurch aus, auch komplexe Bewegungen sehr detailliert sichtbar zu machen. Vergleichbares kann eine nachträglich erzeugte Zeitlupe, für die Frames wiederholt oder Zwischenframes interpoliert werden müssen, nicht leisten.
Etwas besser klappt das nachträgliche Erzeugen von Zeitraffern, denn Frames wegzulassen ist einfacher als Frames neu zu erfinden. Richtig gut funktioniert es allerdings nur, wenn die Zielframerate ein ganzzahliger Teiler der Ausgangsframerate ist, so dass man in gleichmäßigem Rhythmus Frames auslassen kann.
Grundsätzlich kann man fürs nachträgliche Erstellen von Zeitlupen und Zeitraffern auf alle Methoden zurückgreifen, die auch fürs Wandeln von Frameraten verwendet werden.
Insbesondere mit Frame-Interpolation lassen sich Zwischenbilder erzeugen, die dann auch geschmeidigere Zeitlupen sowie ruckelfreie Zeitraffer in nicht-ganzzahligen Teilern der Originalframerate ergeben. Wie gut das funktioniert, hängt jedoch vom Motiv und der Komplexität der Bewegung ab: Für einfache Bewegungen funktioniert es recht ordentlich, aber mit komplexen Bewegungen gibt es viele Fehler und Artefakte. Für eine rein dramaturgisch motivierte Zeitlupe reicht die nachträgliche Erstellung oft aus, aber die analytische Genauigkeit von echt aufgenommenen Zeitlupen erreicht man mit solchen Tricks niemals.
Perfektionisten bedenken bei Zeitlupen und Zeitraffern auch die Anpassung der Belichtungszeit, um einen ähnlichen optischen Fluss wie im übrigen (d. h. in Normalgeschwindigkeit laufenden) Material zu bekommen. Hierzu muss das Verhältnis von Belichtungszeit und Framerate beibehalten werden. Wenn man z. B. die normalen Szenen mit 25 fps und 1/50 Sekunde dreht, würde man eine vierfache Zeitlupe mit 100 fps und 1/200 Sekunde drehen. Oder wenn ein vierfacher Zeitraffer gewünscht ist, würde man 6 fps und 1/13 Sekunde benutzen.
Viele Kameras bieten spezielle Zeitlupen- und Zeitraffer-Aufnahmefunktionen - manchmal sogar stufenlos steuerbar. Hier wird dann von vornherein unterschieden zwischen der Aufnahmeframerate und der Wiedergabeframerate, die als Meta-Information in die Datei geschrieben wird. An Letztere ist man nicht gebunden: Man kann das Material später auch noch um-interpretieren, also ihm eine abweichende Wiedergabe-Framerate zuweisen. So ergibt sich jeweils ein anderer Zeitfaktor.
Wer den Film sonst in einer niedrigen Framerate (z. B. 23,976 oder 25 fps) dreht, kann die Aufnahmemodi für höhere Frameraten (50 und 59,94 fps) als "Zeitlupen-Modi" zweckentfremden, indem er das Material später um-interpretiert. So bekommt man auch ohne speziellen Zeitlupen-Modus eine echte Zeitlupe bis zum Faktor 2,5.
Wenn nötig, kann man echte und nachträgliche Methode auch sinnvoll kombinieren, z. B. bereits mit doppelter Framerate drehen und dann weitere Zwischenbilder interpolieren, um auf einen noch höheren Zeitlupenfaktor zu kommen.
Da es in diesem Artikel vorrangig um optische Wahrnehmung und technische Einordnung verschiedener Frameraten geht, behandle ich meist Halbbildraten und Vollbildraten als gleichwertig. Allerdings gibt es doch technische Unterschiede, auf die man zur Vermeidung von Fehleinschätzungen hinweisen muss.
Wenn Videos für jede Bewegungsstufe vollständige Einzelbilder enthalten, spricht man von Vollbildverfahren (engl. "Progressive Video"). Die niedrigen Frameraten bis 30 fps arbeiten immer mit Vollbildern. Für 50 und 59,94 fps kann wahlweise das Vollbild- oder das Halbbildverfahren zum Einsatz kommen.
Das Halbbildverfahren (manchmal auch "Zeilensprungverfahren" genannt - engl. "Interlaced Video") bedeutet, dass die geraden und ungeraden Zeilen des Videobildes zeitlich versetzt aufgenommen und wiedergegeben werden - ursprünglich zur Vermeidung von Bildflimmern auf Röhrenfernsehern, heute nur noch zur Verringerung der Übertragungsbandbreite. Die sichtbare Bewegungsauflösung von 50 Halbbildern pro Sekunde entspricht der von 50 Vollbildern pro Sekunde - obwohl rein rechnerisch nur 25 volle Bilder pro Sekunde gespeichert werden. Sinngemäß dasselbe gilt für 59,94 Halbbilder pro Sekunde, wofür nur 29,97 volle Bilder pro Sekunde gespeichert werden und trotzdem die Bewegungsauflösung von 59,94 fps zu sehen ist.
Beim Halbbildverfahren steht in bewegten Bildbereichen nur die halbe vertikale Auflösung zur Verfügung, weil ja pro Bewegungsstufe immer jede zweite Zeile "fehlt". In unbewegten Bildbereichen können die Zeilen sich wieder ergänzen, so dass man dann die komplette Vertikalauflösung zur Verfügung hat.
Wie gut diese Ergänzung klappt, hängt maßgeblich von der Signalverarbeitung des wiedergebenden Gerätes ab.
Will man halbbildbasiertes Video weiterbearbeiten, muss man noch einen weiteren Aspekt beachten: die Halbbildreihenfolge. Bei der analogen Übertragung und auch in der ersten Stufe in der digitalen Kamera folgen die Halbbilder automatisch in der vorgegebenen zeitlichen Reihenfolge nacheinander. Doch wenn dann jeweils zwei Halbbilder zu Gesamtbildern zusammengesetzt werden, muss man entscheiden, ob man mit dem Halbbild aus den ungeraden Zeilen oder mit dem Halbbild aus den geraden Zahlen anfängt. Man spricht hier von "Halbbildreihenfolge" (englisch "Field Order") und unterscheidet "Oberes Halbbild zuerst" ("Top Field First") oder "Unteres Halbbild zuerst" ("Bottom Field First").
Für die meisten etablierten Videoformate ist die Halbbildreihenfolge verbindlich festgelegt: Zum Beispiel DV-Video hat das untere Halbbild zuerst, während neuere HD-Formate in der Regel mit dem oberen Halbbild anfangen.
Wird die Halbbildreihenfolge falsch interpretiert, kommt es zu einem starken Zucken in bewegten Bildern. Man kann die Halbbildreihenfolge dann anders interpretieren oder konvertieren (wenn man z. B. Material verschiedener Halbbildreihenfolgen zusammenschneiden muss). Das Konvertieren erfolgt, indem man einfach das ganze Bild um eine Zeile nach oben oder unten verschiebt (am anderen Ende entsteht dann eine schwarze Zeile, die normalerweise nicht auffällt). Wahlweise könnte man ohne Verschieben konvertieren, müsste dann aber das erste und letzte Halbbild, die durch die Konvertierung ja ohne zweites Halbbild dastünden, weglassen.
Der interessierte Leser mag sich fragen, warum man überhaupt immer zwei Halbbilder zum Vollbild zusammensetzt; man könnte die Halbbilder ja auch einzeln hintereinander speichern. Tatsächlich ist die Speicherung von Halbbildern als zusammengesetzte Vollbilder nichts weiter als eine technische Konvention, die unter Abwägung der Vor- und Nachteile mal so festgesetzt wurde. Man hätte es auch anders machen können.
Halbbildsignale sind naturgemäß etwas komplizierter zu verarbeiten als Vollbildsignale. Auf Röhrenfernsehern und frühen Flachbildfernsehern hatte das Halbbildverfahren sichtbare Nachteile - insbesondere ein Zeilenflimmern an feinen horizontalen Linien. Moderne Flachbildfernseher besitzen aufwendige Schaltungen, um aus 50 bzw. 59,94 Halbbildern (engl. "Fields") wieder 50 bzw. 59,94 Vollbilder (engl. "Frames") zu errechnen. Daher sehen Videos, die mit 50 Halbbildern pro Sekunde aufgenommen wurden, auf einem modernen Fernseher nahezu genauso aus wie Videos, die bereits mit 50 Vollbildern pro Sekunde gedreht wurden. Nur die nutzbare Vertikalauflösung ist bei einem Halbbild-Video immer noch etwas reduziert.
Besonders problematisch sind Halbbilder bei der Wiedergabe auf Computerbildschirmen oder beim Import in ein progressives Schnittprojekt. Werden sie von der Software nicht als Halbbilder erkannt und korrekt in Vollbilder umgerechnet, sieht man einen bewegungsbedingten Zeilenversatz: die berüchtigten "Interlace-Kämme".
Das Umrechen von Halbbildern in Vollbilder nennt man englisch "De-Interlacing".
Bei einem einfachen De-Interlacing wird jede zweite Zeile verworfen und durch eine interpolierte Zwischenzeile ersetzt; so entsteht nur die halbe mögliche Zahl Vollbilder pro Sekunde (z. B. nur 25 statt 50) und die zusätzliche Bewegungsauflösung geht verloren. Will man aber die Bewegungsauflösung erhalten (z. B. weil man 50i-Material in einem 50p-Schnittprojekt verwenden möchte), wird das Verfahren technisch aufwendiger. Schnittprogramme übernehmen die Umrechnung zwar automatisch, aber auf eher primitive Weise ("Bobbing") - wodurch Fehler wie Zeilenflimmern entstehen und dauerhaft zu Bildinhalt werden. Besser ist es in solchen Fällen, die Umrechnung vorab mit spezieller Software oder Hardware zu erledigen, die inhaltsbasiert vorgeht und problematische Stellen automatisch korrigiert. Die öffentlich-rechtlichen Sender stehen ständig vor dieser Aufgabe, weil sie zwar im Format 720/50p (also in Vollbildern) senden, aber einen Großteil ihres Materials in 1080/50i (Halbbilder) angeliefert bekommen. Sie benutzen hochwertige Hardware-Konverter, die diese Umwandlung in guter Qualität bewerkstelligen.
Aus dem englischen Fachbegriff "Fields" für Halbbilder leitet sich die Bezeichnung "Fields Per Second" ab; sie wird nur auf halbbildbasierte Videos angewendet und ist dann immer doppelt so hoch wie die Zahl der "Frames Per Second". Zum Beispiel kann ein Video aus 50 Halbbildern (Fields) pro Sekunde bestehen, und das sind dann rechnerisch 25 Bilder (Frames) pro Sekunde.
Videoformate, die mit Halbbildern arbeiten, werden mit dem Buchstaben i (für "interlaced") gekennzeichnet, während echte Vollbilder das Kürzel p ("progressive") tragen. Die Auflösung wird verkürzt als Bildhöhe angegeben, z. B. statt "1920 x 1080" schreibt man dann nur "1080". So weit ist das einheitlich geregelt. Allerdings gibt es mehrere Varianten für die Reihenfolge der Angaben und die Zählweise.
Ein Format mit 1080 Zeilen Bildhöhe und 50 Halbbildern pro Sekunde kann als 1080/50i bezeichnet werden; so steht es z. B. in den Menüs vieler Kameras, deren Auflösung und/oder Framerate umschaltbar ist. Allerdings nach einer neueren Definition (die man zwar in manchen Fachbüchern findet, die jedoch von den Kameraherstellern noch kaum angewendet wird) gibt man als Bildfrequenz statt der Halbbildrate die zusammengesetzte Bildrate an; dann wäre von "1080i/25" die Rede. Dies wird mit der Tatsache begründet, dass bei digitalem Video die Halbbilder nicht hintereinander gespeichert werden, sondern immer zwei Halbbilder als ein Gesamtbild.
Kein Wunder, dass Anfänger verwirrt sind: 1080/50i ist genau dasselbe wie 1080i/25. Verwechslungsgefahr besteht jedoch nicht, weil es ein Format mit nur 25 oder 29,97 Halbbildern pro Sekunde nicht gibt. Also wenn die Zahlen 25 und 29,97 (ersatzweise auch 30) in Verbindung mit dem Buchstaben i auftauchen, ist immer die Zahl der zusammengesetzten Bilder gemeint, und die Zahl an Halbbildern ist dann doppelt so hoch.
Mit progressiven Formaten und dem Buchstaben p ist das von vornherein unmissverständlich: Zum Beispiel 1080p/25 oder 1080/25p hat immer 25 Vollbilder/Sekunde.
Zur Vereinfachung werden oft glatte Zahlen angegeben, obwohl eigentlich die "krummen" NTSC-basierten Frameraten gemeint sind. In der Praxis ist heute mit der Zahl 24 fast immer 23,976 gemeint, mit der Zahl 30 fast immer 29,97 und mit der Zahl 60 fast immer 59,94. Es gibt jedoch Ausnahmen: Manche Kameras bieten einen speziellen Kinoformat-Modus mit 24,00 fps, einige ältere Digitalkameras produzieren Videos mit 30,00 fps und neuere digitale Kinofilm-Kameras können auf Wunsch mit 60,00 fps aufnehmen.
Diese Unterschiede darf man trotz ihrer Geringfügigkeit nicht ignorieren. Wenn man Videos schneidet, muss die Projekt-Framerate exakt zum Videomaterial passen oder das Videomaterial passend zum Projekt um-interpretiert werden; andernfalls kann es zu einer ruckeligen Frameraten-Wandlung oder zur Asynchronität von Bild und Ton kommen.
Welche Framerate ein bestehender Videoclip hat und ob er aus Vollbildern oder Halbbildern besteht, kann man übrigens leicht feststellen - auch wenn man zu dem Clip die genaue Formatbezeichnung nicht kennt: Die technischen Daten stehen ja auch im Header jeder Videodatei drin. (Schließlich muss jeder Player und jedes Schnittprogramm wissen, womit man es zu tun hat.)
Man kann sich z. B. in einem Schnittprogramm oder in manchen Software-Videoplayern die Eckdaten importierter Clips anzeigen lassen. Es gibt auch separate Hilfsprogramme wie MediaInfo, die nahezu alle technischen Daten einer Videodatei auslesen und anzeigen können.
Manche Kameras kennzeichnen Aufnahmen, die progressiv in 29,97p oder 25p aufgenommen wurden, fälschlich als interlaced (59,94i bzw. 50i), damit die Videos in einen bestimmten Standard passen. Diese Videos bestehen also aus echten 25 oder 29,97 Vollbildern pro Sekunde, aber ihre Meta-Informationen gaukeln vor, sie bestünden aus zeitversetzten Halbbildern.
Fürs Abspielen auf dem Fernseher oder fürs simple Überspielen auf DVD/BD spielt das keine große Rolle. Wenn man solche Videos allerdings im Schnittprogramm progressiv weiterverarbeiten will (z. B. für YouTube), sollte man vorher die Interpretation ändern. In manchen Schnittprogramme kann man das direkt nach dem Import der Clips machen; ansonsten gibt es auch Hilfsprogramme, die das Material vor der Weiterverarbeitung "patchen".
Achtet man nicht darauf und zieht falsch gekennzeichnetes Material auf eine 25p- bzw. 29,97p-Timeline, vermutet das Schnittprogramm ein halbbildbasiertes Video - und unterzieht es einem völlig unötigen Deinterlacing, das die Vertikalauflösung reduziert.
Ihre Ursprünge haben beide Wörter in den Anfängen des Farbfernsehens. Bis dato gab es nur schwarzweißes Fernsehen mit 525 Brutto-Bildzeilen und 60 Halbbildern/Sekunde in Amerika sowie mit 625 Brutto-Bildzeilen und 50 Halbbildern/Sekunde in Europa.
In den USA verabschiedete das "National Television Standards Committee" einen ersten Farbcodierungs-Standard, der fortan in den USA genutzt wurde. Zur Vermeidung von Interferenzen musste fürs Farbfernsehen eine Absenkung der Framerate von 60,00 auf 59,94 Halbbilder/Sekunde erfolgen; so entstanden die "krummen NTSC-Frameraten".
Bald wurde der neue Standard unter dem abgekürzten Namen der dahinterstehenden Institution "NTSC" bekannt - und das war die Erste in einer Reihe von Namensübertragungen.
Das NTSC-Verfahren hatte mehrere technische Nachteile und konnte für 50 Halbbilder/Sekunde in Europa ohnehin nicht direkt übernommen werden. In Deutschland wurde es daher weiterentwickelt und schließlich unter dem Namen "Phase Alternating Line" (kurz "PAL") vorgestellt. Jedoch übernahmen nicht alle Länder Europas das deutsche PAL: In Frankreich war schon zuvor der "SECAM"-Standard entwickelt worden, der sich später in leichter Abwandlung auch in Osteuropa verbreitete. Weder PAL noch SECAM benötigten eine Absenkung der Framerate; es blieb also bei glatten 50,00 Halbbildern/Sekunde.
Während die meisten der früheren 60-Hz-Länder das US-amerikanische NTSC direkt übernahmen, gab es auch Länder in Südamerika, die erst Jahre später Farbfernsehen einführten und sich dann für das bessere PAL entschieden - bei gleichzeitiger Übernahme der NTSC-Eckdaten von 525 Zeilen und 59,94 Halbbildern/Sekunde. Anders als NTSC war die PAL-Farbcodierung nämlich nicht auf eine bestimmte Bildfrequenz festgelegt. Man nannte diese spezielle Variante dann PAL-60 oder PAL-M.
Leider ist das heute weitgehend in Vergessenheit geraten. Die meisten Techniker kennen PAL nur noch mit 50 Halbbildern/Sekunde.
Ursprünglich bezeichneten PAL und NTSC also nur Farbcodier-Verfahren, später dann ganze Sendenormen. Diese analogen Sendenormen werden in absehbarer Zeit aus der Welt verschwinden; sie existieren heute nur noch in ein paar Kabelfernseh-Netzen, die noch analoge Ausstrahlung praktizieren. Digitale Übertragung benötigt keine PAL- oder NTSC-Farbcodierung mehr, weil digitale Videodaten völlig anders funktionieren. Das hindert die Hersteller von Kameras, Fernsehgeräten und Inhalten freilich nicht, die Kürzel PAL und NTSC munter weiter zu benutzen - jetzt in abermals neuer Bedeutung.
Als Video und Fernsehen schrittweise digital wurden, hat man diesseits und jenseits des Atlantiks die Eckdaten der früheren Fernsehnormen übernommen, um einen geschmeidigen Übergang zu ermöglichen. Die Bildrate blieb im einen Fall bei 59,94 Halbbildern/Sekunde und im anderen Fall bei 50 Halbbildern/Sekunde.
Eine Unterscheidung der 60-Hz-Welt in NTSC und PAL-M entfiel damit, ebenso wie die Unterscheidung der 50-Hz-Welt in PAL und SECAM. Die Kamerahersteller brauchten jedoch griffige Bezeichnungen, um die beiden Welten klar zu unterscheiden. Statt korrekterweise von 59,94 Hz und 50 Hz zu sprechen, übernahmen sie einfach die Namen der jeweils meistverwendeten Farbcodierungen: PAL für 50 Hz und NTSC für 59,94Hz. Gerade im Fall von PAL war das für technisch kundige Anwender sehr unbefriedigend und verwirrend. Aber die Marketing-Abteilungen kümmern sich nicht um Feinheiten, und der größere Teil der Anwender wusste es sowieso nicht besser.
Fortan galt also inoffiziell: Digitales Video mit 576 Zeilen und 50 Halbbildern/Sekunde heißt PAL, digitales Video mit 480 Zeilen und 59,94 Halbbildern/Sekunde heißt NTSC. So steht es seither auf DVDs, auf Camcordern und (falls es Kameras sind, die sich umschalten lassen) in den Menü-Einträgen.
Und dann kam HDTV. Immerhin die Auflösungen wurden jetzt internationalisiert, so dass bei HD-Video nicht mehr nach der Zeilenzahl unterschieden wird. Alle Versuche, auch die Bildraten im Zuge der HD-Einführung zu harmonisieren, scheiterten jedoch einmal mehr an dem Wunsch nach Abwärtskompatibilität in den Fernsehsendern. So blieb es bei 50 fps in Europa und 59,94 fps in Amerika.
Einmal mehr standen die Kamerahersteller vor der Frage, wie sie die gegensätzlichen Normen benennen sollten. Und einmal mehr fiel ihnen nichts Besseres ein als die erneute Umwidmung der alten Farbcodierungs-Namen: HDTV in 50 Hz (egal ob 50 Halbbilder oder Vollbilder/Sekunde) heißt jetzt PAL, und HDTV in 59,94 Hz (egal ob 59,94 Halbbilder oder Vollbilder/Sekunde) heißt jetzt NTSC. Auch die krumme Film-Framerate von 23,976 fps wird meist zu NTSC gezählt. (Lediglich die Kino-geeigneten 24,00 fps ließen sich nicht eindeutig zuordnen und bilden bis heute eine Sonderkategorie.)
Es gab jedoch nie eine Behörde oder firmenübergreifende Institution, die die Umwidmung der Begriffe "PAL" und "NTSC" standardisiert oder abgesegnet hätte. Im Einzelfall werden sie sogar innerhalb derselben Firma unterschiedlich benutzt, und unter Fachleuten herrscht ein Dauerstreit darüber: Es gibt die Technikhistoriker, die eine Verwendung der Begriffe PAL oder NTSC ganz auf ihre Ursprünge zurückführen und gar nicht mehr für digitales Video verwenden wollen. Es gibt die vorsichtigen Praktiker, die zumindest digitales SD-Video noch als PAL und NTSC anerkennen. Und es gibt die Volladaptierer, die langfristig eine Gleichsetzung "PAL = 50 fps" und "NTSC = 59,94 fps" anstreben. Es sieht ganz so aus, als würden Letztere sich durchsetzen - inoffiziell, versteht sich.
Wer den Wirrwar umgehen will, sollte die Begriffe lieber meiden und stattdessen von "50 Hz" und "59,94 Hz" sprechen.
Frameraten in der digitalen Videotechnik - Einführung
Technische Details rund ums Thema Frameraten
Autor: Andreas Beitinger
Letzte Änderung: Juli 2019
IMPRESSUM
DATENSCHUTZERKLÄRUNG
Sie können diese Internetseite unterstützen, indem Sie Ihren nächsten Kauf bei Amazon über diesen Link abwickeln. Ihnen entstehen dadurch keine Nachteile. Falls Ihr Adblocker das Anzeigen des Suchfeldes verhindert, klicken Sie bitte HIER oder richten Sie für fotovideotec.de eine Ausnahme ein.