Close

 

Ratgeber: Video-Aufnahmen

Praktisch alle neuen Kameras können neben Fotos auch Videos aufnehmen. Die Verlockung, diese Funktion zu nutzen und nicht nur zu fotografieren, sondern auch Filme zu drehen, ist groß. Oder man zählt zu denen, die schon früher mit einem Camcorder durch die Gegend gelaufen sind und den nun zu Hause lassen, um die Aufnahmen mit der Foto-Kamera zu erledigen. Im Prinzip ist das richtig und praktisch, aber es gibt einiges zu beachten, möchte man mit halbwegs brauchbarem Filmmaterial nach Hause kommen. Geht es nur mal eben um das kurze Video-Filmchen zwischendurch – kein Problem: Das bekommt man immer hin. Geht es aber darum, Material zu bekommen, dass man auch weiterverarbeiten kann, zu einem Film zusammen schneiden kann, dann ist etwas mehr Planung und Wissen erforderlich. Hier möchte ich mit meinem Ratgeber weiter helfen.

Unterschiede zwischen Foto und Video

Die meisten, die sich auf Ralfs Foto-Bude verirren, kommen aus der Fotografie. Sie mache Standbilder. Begriffe wie Blende, Belichtungszeit, ISO-Empfindlichkeit und Weißabgleich sind keine Fremdworte. Für uns Fotografen kommt es darauf an, den perfekten Moment zu erwischen, das Bild perfekt zu gestalten. Wie versuchen auf einem zweidimensionalen Medium einen dreidimensionalen Eindruck zu erzeugen. Wir können, nachdem wir das Foto gemacht haben, mit diversen Programmen das Ergebnis nachträglich optimieren. Wer im RAW-Format fotografiert hat extrem viele Möglichkeiten eine Aufnahme zu verbessern: Belichtung, Farbe, Weißabgleich, partielle Anpassungen, Ausschnitt, geraderücken, kleine Retuschen und andere Korrekturen, all das ist mit mehr oder weniger großem Zeitaufwand möglich, um EIN perfektes Foto zu bekommen. 

Und genau hier sind wir beim größten Unterschied zum Film: Während wir beim Fotografieren fünf bis zehn gute Bilder pro Tag machen, sind es bei einem Video 24 bis 60 Fotos pro Sekunde, die alle perfekt sein sollen. Würden wir für jedes dieser Fotos die gleiche Zeit aufbringen, um es zu optimieren, wie bei unseren Fotos, würde ein Film nie fertig. Sicher gibt es Programme, die uns einen Teil dieser Arbeit abnehmen, aber auch diese Programme müssen die Anpassungen in Farbe, Belichtung, Weißabgleich und mehr für jedes einzelne Bild berechnen – das ist das sogenannte Rendern. Nun sind die Computer immer leistungsfähiger geworden und schaffen das, was vor Jahren noch Stunden gedauert hat, heute in wenigen Minuten, dennoch dauert es. Das heißt für uns Fotografen, die filmen wollen: Sorgfälltig arbeiten. Bereits bei der Film-Aufnahme sollten die wichtigsten Parameter möglichst perfekt eingestellt sein, um den nachträglichen Zeitaufwand zu reduzieren. 

Blende und Belichtungszeit

Die zwei wichtigsten Gestaltungsmittel eines Fotografen sind – neben der Brennweite des Objektivs – die Blende und Belichtungszeit. Die Blende legt den Schärfentiefebereich fest, die Belichtungszeit den Grad des Verwischens. Möchten wir in einem Foto Bewegung zeigen, können wir mit einer langen Belichtungszeit einen Teil des Motivs verwischen lassen – die sogenannte Bewegungsunschärfe. Möchten wir beim Sport Dramatik zeigen, brauchen wir eine extrem kurze Belichtungszeit, um genau diesen einen Moment einzufrieren.

Und wie sieht das beim Film aus? Die Blende? Klar, auch beim Film legt man damit fest, wie groß der Schärfentiefebereich sein soll. Kleine Blendenzahl (große Blendenöffnung) = geringe Schärfentiefe, große Blendenzahl (kleine Blendenöffnung) = große Schärfentiefe. Und was ist mit der Belichtungszeit? Im Film bewegt sich alles, also können wir mit der Belichtungszeit keine Bewegung suggerieren oder anhalten. Das heißt: Die Belichtungszeit spielt beim Film eine untergeordnete Rolle. Denn egal, ob wir 1/60 Sekunde oder 1/250 Sekunde einstellen, die Bewegung bleibt erhalten.

Heißt das aber, dass die Belichtungszeit frei gewählt werden kann, um eine korrekte Belichtung zu bekommen? Nein - absolut nicht!

Punkt 1: Die längst mögliche Belichtungszeit hängt von der Zahl der Bilder pro Sekunde ab. Übliche Frequenzen bei Videoaufnahmen sind 24/25/30/50/60 Bilder pro Sekunde – mehr dazu später. Nehmen wir beispielsweise einen Film mit 60 Bildern pro Sekunde auf, so kann die Belichtungszeit des einzelnen Bildes, oder auch Frame genannt (english für Rahmen), nicht länger als 1/60 Sekunde sein. Das heißt den Luxus, den wir als Fotografen haben, vom Stativ mit recht langen Belichtungszeiten zu arbeiten, gibt es beim Film nicht. Länger als 1/24 Sekunde können wir nie belichten.

Punkt 2: Die Belichtungszeit kann zwar, aber sollte nicht beliebig kurz gewählt werden. Früher konnte man beim analogen Film keine Belichtungszeiten einstellen. Da wurde mit 24 Bildern pro Sekunde gefilmt und die Belichtungszeit betrug normalerweise 1/48 Sekunde. Die zweite 1/48 Sekunde wurde benötigt um den Film ein Bild weiter zu schieben. Heute kann man bei Digitalkameras die Belichtungszeit in einem weiten Bereich einstellen.

Das ist allerdings nur bedingt sinnvoll. Bleibt man beispielsweise bei den 24 Bildern pro Sekunde und stellt eine Belichtungszeit von 1/500 Sekunde ein, so wird in der 1/24 Sekunde, die ein Bild (Frame) hat, nur ein winziger Bruchteil belichtet, der Rest "verschwindet". Bei einem ruhigen Motiv wird das im fertigen Film nicht auffallen. Filmt man hingegen ein Motiv mit gleichmäßiger Bewegung, so wird das Ergebnis abgehackt aussehen.

Mit der nebenstehenden Grafik möchte ich das verdeutlichen. Im diesem Beispiel bewegt sich eine Kugel auf einer Kreisbahn. Im fertigen Video soll die Bewegung der Kugel möglichst gleichmäßig aussehen. Bei der Kamera ist eine Bildwiederholrate von 24 Bildern pro Sekunde eingestellt. In der linken Grafik wird eine Belichtungszeit von 1/500 Sekunde eingestellt. Auf dem einzelnen Bild (Frame) wird die Kugel knackscharf abgebildet, da sie sich während der Belichtungszeit – rotes Segment – nur minimal bewegt. Bis zum Beginn des nächsten Frames vergehen nun 1/24 Sekunde minus 1/500 Sekunde – der graue Bereich – bis das nächste Bild gemacht wird. In dieser Zeit bewegt sich die Kugel natürlich weiter, der Bewegungsablauf wird aber nicht aufgenommen. Sprich beim zweiten Frame springt die Kugel ein erhebliches Stück. Prozentual ausgedrückt, bedeutet das, dass nur rund 5 Prozent des Bewegungsablaufs aufgezeichnet werden, während 95 Prozent "verschluckt" werden. Im fertigen Film sieht das extrem unruhig und nicht flüssig aus, man nennt das auch Stakkato-Effekt.

Wählt man bei den gleichen Vorgaben nun eine Belichtungszeit von 1/40 Sekunde, so erkennt man in der rechten Grafik, dass ein viel größerer Teil des Bewegungsablaufs – grünes Segment – aufgezeichnet werden. Die Kugel ist zwar auf den einzelnen Bildern nicht knackscharf abgebildet sondern mit einer gewissen Bewegungsunschärfe versehen, aber es fehlt von Frame zu Frame nur ein kleiner Bereich – hier grau dargestellt. Prozentual ausgedrückt, werden rund 60 Prozent des Bewegungsablaufs aufgenommen und nur 40 Prozent "verschluckt". Im fertigen Film sieht die Bewegung der Kugel dann flüssig und gleichmäßig aus.

Stellt sich die Frage, warum die Belichtungszeit nicht gleich auf 1/24 Sekunde verlängern und so quasi den gesamten Bewegungsablauf aufzeichnen? Im Prinzip kann man das machen, muss allerdings dann darauf achten, dass Elemente, die sich schnell bewegen nicht zu verwischt aussehen. Hier sollte man ein paar Versuche machen und so Erfahrung sammeln, in welchen Situationen man welche Belichtungszeiten wählen kann. 

Schärfentiefe und Blende

Aus dem oben geschilderten Zusammenhang zwischen Bildwiederholrate und Belichtungszeit, ergibt sich nun ein Problem, wenn wir bei viel Licht mit geringer Schärfentiefe arbeiten möchten. Schönes Sonnenlicht, ISO 100, Blende f2.8 für geringe Schärfentiefe und die Belichtungszeit? Dürfte hier bei 1/500 oder 1/1000 liegen, wenn das überhaupt reicht. Abblenden? Wollen wir nicht, denn wir wollen ja mit der Schärfe spielen. Was bleibt ist der Einsatz eines Graufiltern. Für Langzeitbelichtungen wird der ein oder andere sicher schon ein Set in der Fototasche haben. Für den Anfang reicht das auch aus, wer allerdings etwas engagierter Filmen möchte, wird um den Kauf einen variablen Graufilters nicht herumkommen. 

Diese Vario-ND-Filter gibt es in unterschiedlichen Stärken, die in ND angegeben werden. So lässt beispielsweise ein ND2 bis ND200-Filter in der Einstellung ND2 die Hälfte des Lichtes durch und in der Einstellung ND200 nur noch 1/200 des Lichts. So kann man die Belichtung perfekt auf die Lichtsituation anpassen, ohne dabei Blende und Belichtungszeit verändern zu müssen. Profi-Filter kosten um die 200 Euro. Sie liefern gute Qualität, und auch bei hohen ND-Werten liefern Sie noch farbtreue Ergebnisse. Neben diesen professionellen Filtern stelle ich hier ein günstigere Variante vor. Der Filter arbeitet im unteren Bereich perfekt, verändert die Farben kaum und liefert gute Ergebnisse. Lediglich im "sehr dunklen" Bereich sollte man etwas aufpassen und ein paar Probeaufnahmen machen. Um den Filter auf verschiedenen Objektiven zu nutzen kann man einen sogenannten Step-Up-Adapter nutzen, den es in verschiedenen Varianten gibt.

52 mm 58 mm 62 mm 67 mm 72 mm 77 mm 77 mm Step-Up

Weissabgleich

Fotografen, die in RAW Fotografieren, müssen sich um den Weißabgleich keine Gedanken machen. Und wer JPEG-Dateien bevorzugt, eigentlich auch nicht. Moderne Kameras machen den automatischen Weißabgleich sehr gut. Liegt die Kamera doch mal einen Hauch daneben, lässt sich das in der Nachbearbeitung korrigieren. Und genau das sollte man bei einem Video vermeiden, denn das Rendern dauert dann länger. Beim Video sollte man gleich bei der Aufnahme einen guten Weißabgleich machen. Das macht man am einfachsten mit einem weißen Blatt Papier, das man ins Licht hält und auf dem Monitor das Ergebnis kontrolliert. Bekommt die Kamera den automatischen Weißabgleich nicht hin, stellt man manuell den passenden Kelvin-Wert ein. Wichtig: Ändert sich das Licht, muss der Weissabgleich angepasst werden. Möchte man den Weissabgleich und die Farbeinstellung noch feiner einstellen, so kann man eine kombinierte Farb- und Graukarte verwenden.

Zusammenfassung – Teil 1

Wer von der Fotografie kommt, muss umdenken. Das betrifft vor allem die Belichtungszeit und den Weißabgleich. Wer engagiert filmen möchte, kommt um den Einsatz eines Vario-Graufilters nicht umhin. Alles was sich bereits bei der Aufnahme perfektionieren lässt, sollte perfektioniert werden. Nacharbeiten sind rechen- und damit zeitintensiv und sollten vermieden werden. 

Bildwiederholraten und Videoformate

Kommen wir nun nach den ersten praktischen Unterschieden, zu etwas trockener Theorie. In der Fotografie unterscheiden wir beim Dateiformat hauptsächlich zwischen RAW und JPEG – das war's. Dann gibt's noch die verschiedenen Formate 4:3, 3:2, 16:9 und 1:1 und diverse Auflösungen, die hauptsächlich durch den Sensor bestimmt werden. Meist stellen wir das aber alles gar nicht ein, sondern fotografieren mit der maximalen Auflösung des Sensors und dem durch den Sensor vorgegebenen Seitenverhältnis. 

Schön wäre es, wenn das beim Video auch so wäre – ist es aber nicht. Fangen wir mit dem einfachsten an, der Auflösung. Ganz früher in Urzeiten der Computertechnik, war das Standardformat 640 x 480 Bildpunkte. Das findet sich heute immer noch in den Einstellungen vieler Kameras. Wofür man es braucht? Für nichts. Selbst Handys haben inzwischen eine bessere Auflösung.

Die nächste Stufe ist die HD-Auflösung – HD steht für High Definition, also hohe Auflösung. Bis vor einigen Jahren konnte man Fernseher nur mit einer maximalen Auflösung von 1280 x 720 Bildpunkten bauen, was heute auch als das kleine HD-Format bezeichnet wird. Praktisch alle Kameras haben diese Einstellung. Genutzt wird sie vor allem, wenn man Videos für YouTube der andere Online-Medien erstellen möchte und nicht die allerhöchste Auflösung benötigt um entsprechend kleinere Dateien zu bekommen. Allen HD-Formaten gemeinsam ist, dass sie ein Seitenverhältnis von 16:9 haben.

Weiter geht's mit der sogenannten Full-HD-Auflösung – ebenfalls mit dem Seitenverhältnis von 16 : 9. Die hat 1920 x 1080 Bildpunkte und ist heute am weitesten verbreitet. Praktisch alle Kameras, die in diesem und im letzten Jahr auf den Markt gekommen sind, filmen in diesem Format. Alle modernen Fernseher haben ebenfalls diese Auflösung.

Neu hinzugekommen ist das Format 4k mit einer Auflösung von 3840 x 2160 Bildpunkten. Damit ist auch klar, woher der Name 4k kommt, denn es ist die vierfache Auflösung von Full-HD. Bei 4k gibt es allerdings noch eine weitere Auflösung, die häufig als "Cinema 4k" bezeichnet wird und 4096 x 2304 Bildpunkte hat. 

Soviel zu den Auflösungen, kommen wir nun zu den Bildwiederholraten, die ich ja bereits zuvor angesprochen habe. Traditionell ist die Bildwiederholrate von 24 Bildern pro Sekunde das klassische Kino-Format. Das kann man bei den meisten Kameras einstellen. Außerdem gibt es meist noch die Einstellung 25 Bilder pro Sekunde. Warum es die gibt? Weil es die Hälfte von 50 Bildern pro Sekunde ist, der Wiederholrate, die in Europa hauptsächlich zum Einsatz kommt. In den USA ist hingegen die Wiederholrate hauptsächlich 60 Bilder pro Sekunde und auch davon gibt es dann die Hälfte mit 30 Bildern pro Sekunde. Nicht wundern, manchmal werden nicht 30 sondern 29,97 Bilder pro Sekunde angegeben und ebenso 59,97 Bilder pro Sekunde.

Stellt sich nun die Frage, warum einmal 50 Bilder pro Sekunde und einmal 60 Bilder pro Sekunde? Das hat mit dem Stromnetz und der Wechselspannung zu tun. Während in Europa die Netzspannung eine Frequenz von 50 Hertz hat, hat sie in den USA 60 Hertz. Würde man nun bei Kunstlicht in den USA mit einer Frequenz von 50 Bildern pro Sekunde filmen, käme es zu unschönem Flimmern. Gleiches gilt umgekehrt. Tatsächlich spielt das heute keine so große Rolle mehr, da die Lampen meist sowieso Halogen, LED oder andere hochfrequente Lichtquellen sind, so dass das Flimmern gar nicht auftritt. Dennoch sollte man diesen Zusammenhang kennen und darauf achten, dass man bei Kunstlicht mit normalen Glühlampen diesen Effekt möglicherweise hat und bereits bei der Aufnahme die passende Bildwiederholfrequenz einstellt. Für Aufnahmen ohne Kunstlicht spielen die Faktoren keine Rolle.

Es gibt also die Wiederholraten 24, 25, 30 (29,97), 50 und 60. Das sind die Standards. Einige Kameras haben zusätzlich noch höhere Bildwiederholraten, die meist ein vielfaches dieser Basiswerte sind. Also etwas 100 oder 120 Bilder pro Sekunde. Solche Aufnahmen werden später mit der normalen Geschwindigkeit wiedergegeben und man bekommt Zeitlupen-Aufnahmen.  

So weit so gut. Nun kommt der nächste Punkt, nämlich die Unterscheidung zwischen "p" und "i". Alle Wiederholraten gibt es mit dem Zusatz "p" oder "i", also etwa 50p und 50i. Die Buchstaben stehen für progressiv und interlaced. Was heißt das? Interlaced bedeutet, dass beim Auslesen des Sensors immer nur jede zweite Bildzeile gespeichert wird. Also beim ersten Bild werden die Zeilen 1, 3, 5, 7, ...... 1079 ausgelesen und beim zweiten Bild die Zeilen 2, 4, 6, 8, .... 1080. Hingegen bei progressiv wird bei jedem Bild jede Zeile vollständig ausgelesen. Warum es diesen Unterschied gibt? Weil früher die Rechenleistung der Kameras geringer war und man nicht so viele Daten verarbeiten konnte. Heute ist das kein Problem mehr und praktisch alle neuen Kameras nehmen in progressiv auf. Das ist auch die Einstellung, die ich empfehlen würde. Außerdem würde ich, wenn nicht speziell der Kino-Look mit 24 Bildern pro Sekunde gewünscht ist, mit 50 Bildern pro Sekunde filmen, also die Einstellung 50p im Menü wählen.

Damit das Ganze aber nicht zu einfach wird, kommt jetzt noch die Datenrate ins Spiel. Die Datenrate ist vergleichbar mit der Komprimierung bei JPEG-Dateien. Hier gibt es unterschiedliche Stufen, wie stark die Datei komprimiert werden soll. Je stärker, um so kleiner sind die Dateien aber auch um so schlechter ist die Bildqualität. Beim Video ist das ähnlich, hier spielt die Datenrate eine entscheidende Rolle. Üblicherweise zeichnen Digitalkameras im AVCHD-Format auf und werden mit einer maximalen Datenrate von 28 Megabits pro Sekunde (Mbps) gespeichert – egal bei welcher Bildwiederholrate. Das heißt der Datenstrom, der aus dem Sensor kommt wird von der Kamera auf diesen Wert heruntergerechnet. Einige neuere Kameras arbeiten inzwischen auch mit Datenraten von bis zu 50 Mbps. Außerdem bieten die meisten Kameras auch niedrigere Datenraten von beispielsweise 17 Mbps an, was dann aber mit entsprechend geringerer Qualität erkauft wird. Nun kann man sich vorstellen, dass eine solchen Datenrate nicht reicht, um 4k-Videos zu speichern. Richtig, die werden üblicherweise mit 100 Mbps geschrieben, also knapp der vierfachen Datenrate. Einige professionelle Kameras erreichen sogar Datenraten von 200 Mbps oder mehr.

Und weil all das noch nicht genug ist, gibt es außerdem noch verschiedene Dateiformate und Codecs. Kennen sollte man hier die drei wichtigsten Formate: Das bereits erwähnte AVCHD, MP4 und das recht neue XAVC S, das es nur bei Sony gibt. Zur Unterscheidung: AVCHD geht nur bis Full-HD und maximal 50p/60p üblicherweise bei einer Datenrate von maximal 28 Mbps, MP4 bietet das gleiche aber zusätzlich noch die 4k-Formate mit Datenraten von 100 Mbps und mehr und XAVC S erreicht ebenfalls "nur" Full-HD, allerdings mit einer Datenrate von 50 Mbps. Zusätzlich gibt es noch professionelle Codecs mit höheren Datenraten, die bei Standard-Digitalkameras allerdings keine Rolle spielen.

Wichtig: Ausreichend "schnelle" Speicherkarten. Wer viel fotografiert, nutzt eh schon Speicherkarten mit großer Kapazität. Beim Video kann es aber nicht groß genug sein – 64 GB sind minimal erforderlich und schnell müssen sie sein – 95 MB/s.

Noch ein Hinweis zu den Datenraten und Bildwiederholraten. Bei einigen Kameras – zum Beispiel Sony – beträgt die maximale Datenrate bei 50p/60p 28 Mbps und bei 24p "nur" 24 Mbps. Betrachtet man das vordergründig, scheint die Variante mit 50p die bessere zu sein, wegen der höheren Datenrate. Tatsächlich ist die Einstellung 24 aber besser hinsichtlich der Detailwiedergabe, da dort jedes einzelne Bild geringer komprimiert ist. In der Einstellung 50p verteilen sie die 28 Mbps auf 50 Bilder pro Sekunde, also 28/50 = 0,56 Megabit pro Bild. In der Einstellung 24 Bilder pro Sekunde, verteilen sich die 24 Mbps auf "nur" 24 Bilder, was pro Bild mehr Daten bedeutet 24/24 = 1,0 Megabit pro Bild. Allerdings auch das ist nicht ganz so einfach präzise zu ermitteln, da es beim Film zusätzlich sogenannte Key-Frames gibt. Das sind Bilder, die quasi die gesamte Bildinformation enthalten. Die folgenden Bilder enthalten nur die geänderten Informationen. Je mehr sich bewegt, um so mehr Informationen sind erforderlich. 

Zusammenfassung – Teil 2

Zwei Formate sind heute wichtig: Full-HD mit 1920 x 1080 Bildpunkten und 4k mit 3840 x 2160 Bildpunkten. Dazu gibt es verschiedene Bildwiederholraten: 24p (Kino), 25p, 30p, 50p und 60p. Wer nicht im Kinoformat filmen möchte, sollte mit 50p aufnehmen. Wichtig für die Qualität ist die Datenrate, hier gilt: Je höher je besser. Üblicherweise haben AVCHD bis zu 28 Megabit pro Sekunde (Mbps), XAVC S 50 Mbps und 4k-Videos 100 Mbps. Profikameras kommen auf höhere Datenraten von 200 Mbps und mehr.

Stativ & Co.

Während wir Fotografen es gewohnt sind bei normalem Licht aus der Hand zu fotografieren, ist das bei Videoaufnahmen nicht sinnvoll, wenn man halbwegs gutes Material bekommen möchte. Erst recht nicht, wenn man in 4k aufnimmt. Hier kommt man um ein gutes Stativ mit Videokopf nicht umhin. Videokopf? Ja, den braucht man. Möchte man einen Schwenk machen – von denen man nicht zu viele machen sollte – muss der butterweich anfangen, geschmeidig laufen und genauso butterweich enden. Mit einem normalen Fotokopf ist das praktisch nicht möglich, da der immer wieder rucken wird – probiert es gerne aus. Videoköpfe sind anders gelagert, gedämpft und die Friktion – der Widerstand – kann genau eingestellt werden. 

Alternativ zum Stativ kann man auch einen sogenannten Cage verwenden für bewegte Aufnahmen. Dabei wird die Kamera in eine Art Halter eingebaut, der mit einem Griff ausgestattet ist. Möchte man beispielsweise eine Person mit der Kamera verfolgen, hält man die Kamera am Griff und kann sie relativ stabil und verwacklungsfrei halten. Dazu ist allerdings ein wenig Übung erforderlich. Etwas größer und professioneller sind Rigs. Dabei wird die Kamera auf einer Art mobilem Stativ vor dem Körper getragen. Soll es noch ein Stück professioneller sein, kann man einen Gimbal einsetzen. Allerdings sind die mit rund 3000 Euro nicht gerade günstig. Die Kamera wird in den Gimbal eingespannt, der die Bewegungen des Kameramanns ausgleicht. Die Kamera bleibt so immer in der waagrechten und das aufgenommene Bild sieht sehr ruhig aus. 

Universal-
Cage

Cage für Olympus
OM-D E-M5

Cage für Sony NEX 5/6/7
Alpha 5000/5100/6000

Cage für kompakte Systemkameras Universal-Rig für DSLR-Kameras Universal-Rig für DSLR-Kameras

Noch ein Tipp zum Thema Schwenks: Hier bitte den richtigen Modus für den Bildstabilisator wählen. Die Einstellung findet man meist im Kamera-Menü unter dem Punkt "Stabilisator". Hier wählt man die Einstellung, die nur die Bewegungen nach unten und oben ausgleicht. Meist wird das durch einen Pfeil symbolisiert oder es gibt eben verschiedene Einstellungen, die entsprechend benannt sind. Der Grund: In der normalen Einstellung versucht die Kamera alle Zitterbewegungen auszugleichen: oben, unten, links, rechts. Schwenkt man nun die Kamera nach links oder rechts, so wird der Stabilisator diese Bewegung versuchen auszugleichen und "hält" das Bild für einen kurzen Moment fest, bevor es dann ruckartig dem Schwenk folgt. Um das zu verhindern wird die andere Einstellung des Stabilisators gewählt, die nur die Bewegungen nach oben und unten ausgleicht, nicht jedoch die nach links oder rechts. So setzt der Schwenk ohne Ruck sanft und gleichmäßig ein.

Zoomen und Fokussieren

Als Fotograf macht man sich über das Zoomen und Scharfstellen kaum Gedanken. Entweder überlässt man die Arbeit dem Autofokus oder bei bestimmten Motiven stellt man manuell scharf. Im Video ist das Ganze nicht ganz so einfach, denn sowohl die Änderung der Brennweite als auch die der Schärfeebene soll ja gleichmäßig aussehen. Fangen wir mit der Brennweite, dem Zoom, an. Viele Kompaktkameras haben heute einen elektrischen Zoom. Das heißt die Brennweitenverstellung geschieht nicht mechanisch, sondern per Motor. Gesteuert wird das Ganze per Zoomhebel. Hier ist nun das Problem, dass sich zum einen nicht die Geschwindigkeit genau justieren lässt und zum anderen die Geschwindigkeit selten wirklich sehr gleichmäßig ist. Das heißt, wir können mit solchen Kameras keine präzisen und ruhigen Zoomfahrten machen. Anders sieht das bei Zoomobjektiven aus, bei denen man manuell die Brennweite verstellt. In den meisten Fällen geschieht das durch Drehen des Zoomrings. Da das aber mit der Hand um den Ring ebenfalls nicht sehr gleichmäßig geht, empfehle ich die Verwendung eines kleinen Hebels. Der wird per Ringverschluss am Zoomring befestigt und kann dann sehr gleichmäßig bewegt werden. Aber auch hier gehört ein wenig Übung dazu, um die richtige Geschwindigkeit zu bekommen. Und bitte nie zu schnell zoomen, das Auge wird durch wilde Zoomfahrten verwirrt. 

Kommen wir nun zum Fokussieren. Hier kommt ein neues Problem auf uns zu: Die Präzision und Geschwindigkeit des Autofokus. Filmen wir ein ruhiges Motiv, möglichst in einer Schärfeebene, so ist das für den Autofokus kein Problem. Filmen wir hingegen eine Szene, in der viel Bewegung ist, in der vielleicht noch eine Person in oder aus dem Bild geht, wird der Autofokus gefordert. Schlimmstenfalls findet er immer wieder neue Autofokuspunkte auf die er scharf stellt und so wandert die Schärfe wild durch Bild und sorgt für Unruhe. Bestenfalls folgt der Autofokus der sich bewegenden Person und hält die Schärfe recht gut. Das Problem: Sobald sich der Person diagonal bewegt, verwirrt das den Autofokus. Arbeiten wir mit punktuellem Autofokus, können wir den während der Aufnahme ja nicht verschieben. Arbeiten wir mit Verfolgungs-Autofokus, darf sich das Aussehen des zu verfolgenden Objekts nicht zu stark ändern, sonst verliert der Autofokus die Verfolgung. Arbeiten wir mit einem Flächen-Autofokus, kann das Fokus immer wieder springen. Was heißt das nun? Wir sollten uns nicht auf den Autofokus verlassen, sondern manuell fokussieren.

Manuelles Fokussieren ist beim Film die Normalität. Nur wenige Szenen werden mit Autofokus gedreht, das meiste mit manueller Einstellung. Ein wichtiger Punkt dabei ist das sogenannte Schärfeziehen. Bewegt sich beispielsweise eine Person auf uns zu und soll immer im Fokus sein, so zieht man die Schärfe von hinten nach vorne. Dafür ist Erfahrung sowie Geschick erforderlich. Und: Das geht natürlich nur mit Kameras, die überhaupt manuelles Fokussieren per Drehring zulassen. Bei vielen Kompaktkameras wird die Schärfe nämlich gar nicht am Objektivring verstellt, sondern per Drehrad an der Kamera. Mit solchen Kameras ist das manuelle Fokussieren bei einem Videodreh nicht möglich. Allerdings haben Kompaktkameras auch meist so kleine Sensoren, dass man kaum gezielt mit der Schärfe arbeiten kann. 

Hat die Kamera einen Fokusring am Objektiv, heißt das aber noch lange nicht, dass sie auch zum manuellen Fokussieren gut geeignet ist. Warum? Wie beim Zoomring, haben viele Kameras eine elektrische Verstellung des Fokus. Sprich: Ich kann den Fokusring endlos drehen. Irgendwann habe ich unendlich und in der Gegenrichtung die Nahgrenze. Möchte ich nun auf eine bestimmte Entfernung einstellen, drehe ich den Ring einfach so lange, bis der Punkt scharf ist – beispielsweise eine Person in der Ferne. Nun stelle ich die Person an die der Kamera nahen Position und stelle erneut darauf scharf. Eigentlich kenne ich nun die Position des Fokusrings für die ferne und nahe Position und könnte so die Schärfe perfekt ziehen, während die Person auf mich zu kommt. Das Problem: Die Fokusringe arbeiten selten linear und vor allem nicht absolut präzise. Nicht linear heißt: Drehe ich langsam am Ring, bewegt sich die Schärfebereiche langsam, drehe ich schnell, bewegt sie sich schnell auf mich zu. Und so sind die zuvor ermittelten Positionen nur so lange gültig, so lange ich immer mit exakt der gleichen Geschwindigkeit am Fokusring drehe. In der Praxis bedeutet das, dass ich mit solchen Kameras nie perfekt die Schärfe ziehen kann.

   

Anders sieht das bei Objektiven oder Kameras aus, deren Objektiv speziell dafür ausgelegt ist oder bei denen mechanisch scharfgestellt wird. Denn da ist die Position des Fokusrings immer die gleiche, wenn ich beispielsweise auf ein Objekt scharf stellen möchte, das erst 10 Meter und dann 2 Meter entfernt ist. So kann ich ohne Probleme Anfangs- und Endposition ermitteln und zwischen diesen beiden Punkten die Schärfe ziehen. Auch hier hilft wieder ein Hebel, den ich per Ring am Fokusring befestige.

Blende variieren

Neben dem Schärfe ziehen, wird auch das verringern oder ausdehnen der Schärfentiefe gerne als Stilmittel im Film eingesetzt. Allerdings ist das mit normalen Digitalkameras praktisch nicht umzusetzen. Der Grund: Um die Schärfentiefe zu verändern, muss ich die Blende verändern. Das geht natürlich mit jeder Kamera. Ich kann von Blende f2.8 auf Blende f8.0 wechseln und so die Schärfentiefe erhöhen. Für den Film muss dieser Übergang allerdings sehr weich und fließend sein. Und genau das geht mit Digitalkameras nicht. Die Blende wird nämlich nicht stufenlos verstellt, sondern in Schritten, die man dann als Helligkeitssprünge im Film sieht. Denn: Mit dem verändern der Blende muss sich ja auch die Belichtungszeit verändern, sonst sind die Aufnahmen über- oder unterbelichtet. Alternativ könnte man auch die ISO-Empfindlichkeit anpassen, aber auch hier würde man leicht Helligkeitsprünge sehen. Bei professionellen Kamera oder auch Objektiven, kann die Blende stufenlos eingestellt werden. Es ist praktisch der gleiche Ring, wie der Fokusring und der Zoomring. Die Unterschiede in der Belichtung werden bei professionellen Kameras über den Gainwert ausgeglichen. Das ist eine Art Signalverstärkung, vergleichbar mit dem ISO-Wert. Alternativ dazu kann aber auch ein variabler Graufilter eingesetzt werden, der quasi gegenläufig die Helligkeit anpasst.

Ton-Aufnahme

Letzter Punkt: Die Ton-Aufnahme. Praktisch alle Kameras sind mit einem eingebauten Stereo-Mikrofon ausgestattet. Allerdings liefern die nur mittelmäßigen Ton. Ein wesentliches Problem dabei sind die Geräusche, die die Kamera während der Aufnahme macht: Zoom- und Autofokus-Motor. Die sind auf der Tonspur mit drauf und später dann auch im Video zu hören. Die Alternative ist ein externes Mikrofon, dass an die Kamera angeschlossen wird. Allerdings haben nicht alle Kameras einen entsprechenden Mikrofon-Anschluss. Fehlt der und man möchte trotzdem guten Ton haben, muss man auf externe digitale Aufnahmegeräte zurückgreifen. Die Synchronisation ist heute kein Problem mehr, da die Schnittprogramme viele Möglichkeiten der Feinjustage zulassen. Zudem lassen sich die Videospur, die ja auch eine Tonspur von der Kamera hat, mit der reinen Tonspur automatisch synchronisieren. Daher der Tipp: Wenn man ein externes Aufnahmegerät verwendet, trotzdem die Ton-Aufnahme der Kamera mitlaufen lassen, um das Synchronisieren später in der Nachbearbeitung zu erleichtern.

   

 

Zusamenfassung Teil 3

Wer anspruchsvoll filmen möchte, kommt um ein gutes Videostativ oder ein Rig nicht umhin. Ruhige Aufnahmen gelingen nicht aus der Hand, erst recht nicht, wenn man in 4k filmt. Um hochwertiges Material zu erstellen sind manuelle Einstellungen erforderlich. Das betrifft vor allem die Schärfe, aber auch Zoomfahrten. Soll die Schärfentiefe fließend während der Aufnahme verändert werden, gelingt das nur mit speziellen Cine-Objektiven, da nur die eine stufenlose Blende haben. Gute Ton-Aufnahmen gelingen nur mit einem externen Mikrofon oder zusätzlichem Aufnahmegerät.

Nachbearbeitung am Computer

Das Drehen eines Films ist das Eine, die Nachbearbeitung das andere. Sicher sind die Rechner heute wesentlich leistungsfähiger als noch vor ein paar Jahren. Dennoch: Wer halbwegs flott und entspannt Videos schneiden möchte, braucht einen leistungsfähigen Rechner, mit viel Hauptspeicher und großer Festplatte. Das gilt erst recht, wenn man 4k-Material bearbeiten möchte. Ein Film schnell zusammen zu schneiden ist noch nicht einmal die große Kunst, sollen aber Farbe, Geräusche, Musik, Sprache und Effekte zusammenpassen, wird das Ganze schon wesentlich aufwendiger. Hier kommt dann das sogenannte Color-Grading dazu, das heißt die Farbe aller Einzelaufnahmen muss aneinander angepasst werden. Ist das nicht der Fall, sind im fertigen Film Helligkeits- und Farbsprünge vorhanden, die wenig professionell aussehen. Das gleiche gilt für die Wahl der Musik, die möglichst perfekt zum Filmschnitt passen sollte.

Mein Fazit

Wer nur mal zwischendurch ein Video als Erinnerung an einen besonderen Moment drehen möchte, kann das mit den meisten Kameras ohne Probleme. In der Automatik-Einstellung ist die Bildqualität völlig ausreichend für die Wiedergabe an einem Flachfernseher. Möchte man allerdings mehr machen, Projekte filmen, Familienfeiern perfekt auf Video bannen, eine Urlaubsreise dokumentieren oder gar einen kleinen Spielfilm drehen, ist der Aufwand erheblich. Das fängt mit der Idee und einem Drehbuch an. Geht weiter über die richtige Wahl der Kameras und des Objektivs, eventuell der Lichtauswahl und der Tonaufnahme. Wer all das bisher als Fotograf noch nie gemacht hat, sollte sich genau überlegen, ob er sich darauf einlässt.

Meiner Ansicht nach, sollte man sich entweder aufs Filmen oder Fotografieren konzentrieren. Auf einer Urlaubsreise beides machen zu wollen, artet meiner Erfahrung nach in Stress aus und macht keinen Spaß. Zudem kommt man mit zwei mittelmäßgen Produkten nach Hause: Fotos und Videos.  Entweder man hat einen Partner, der an dem anderen Metier Spaß hat und ergänzt sich so, oder man sollte sich auf eins konzentrieren und das richtig machen. Videos drehen ist eine eigene Welt, die zwar – wie die Fotografie – den Gesetzen der optischen Physik folgt, aber eigene Regeln hat. Beides macht Spaß, aber ich glaube, beides ernsthaft parallel zu betreiben macht keinen Spaß. 

Alle Neuheiten sofort erfahren – registrier dich für meinen kostenlosen Newsletter: REGISTRIEREN

Die Foto-Bude braucht dich und deine Unterstützung

 
Die Foto-Bude braucht dich!
Unterstütz meine Arbeit mit einer Spende.