Profi-Tipps für tolle Panoramabilder


12. Januar 2009, 09:39 Uhr
DIGITALFOTOGRAFIE
Profi-Tipps für tolle Panoramabilder

Aus einzelnen Fotos ein mächtiges Panorama zu basteln, das erfordert ein paar grundlegende Kenntnisse. Profi-Fotograf Michael Freeman erklärt, was Stitching ist, wie man einen 360-Grad-Rundblick auf ein einziges Bild bringt und wie Überblendungen zwischen Bildern sauber gelingen.

Technologien, die von sich behaupten, die Kreativität zu fördern, stehe ich von Natur aus skeptisch gegenüber. Doch im Falle des Anstückelns mehrerer Bilder (Fachjargon "Stitching") mache ich eine Ausnahme.


Aus einer Vielzahl von Einzelbildern mehrerer Sequenzen wurden acht Aufnahmen ausgewählt, um diese Panoramaimpression vom Atelier des chinesischen Künstlers Shao Fan anzufertigen


Die Technologie hinter diesem überaus simplen Konzept hat sich während der letzten Jahre enorm weiterentwickelt. Im Grunde genommen ist Stitching nichts anderes als die Kombination mehrerer sich überlappender Bilder zu einem einzigen, größeren Bild.


Stitching-Software hat den in analogen Tagen nahezu undenkbaren Prozess des Aneinanderfügens von 360-Grad-Panoramen oder riesigen Bildern aus mehreren Einzelaufnahmen so leicht wie nie zuvor gemacht. Diese Möglichkeiten bieten ein unerschöpfliches kreatives Potential und haben sogar ihren Weg in die Kunstfotografie gefunden.

Riesige Bilder erzeugen

Das Zusammensetzen eines einzigen, riesigen Bilds aus vielen Einzelbildern erhöht die Auflösung des finalen Bilds. Statt ein Motiv bei einer Brennweite von 50 mm aufzunehmen, zoomen Sie einfach auf 100 mm heran und lichten detaillierte, sich überlappende Bildbereiche ab. Am Ende steht eine Bilddatei, die viermal so groß ist – als wäre sie mit einer Kamera gemacht worden, die über eine wesentlich höhere Sensorauflösung verfügt. Im analogen Zeitalter war man gezwungen, für hochauflösende Bilder auf eine teure Großformatkamera umzusteigen. Auch heutzutage können Sie auf sündhaft teure Digitalrückwände mit 15 Megapixel oder mehr zurückgreifen – oder Sie vervielfachen ganz einfach die Auflösung Ihrer aktuellen Kamera durch den Einsatz von Stitching. Dazu zerlegen Sie die Szene in mehrere Segmente – je länger die Brennweite, desto mehr Segmente. Dadurch kann eine aus mehreren Teleaufnahmen bestehende Bilddatei riesig groß werden – rechnen Sie einfach mal nach.

Ein 15-mm-Objektiv auf einer DSLR mit Vollbildsensor deckt einen Blickwinkel von 110 Grad ab, was einer echten Weitwinkelaufnahme entspricht. Nun stellen Sie sich dieselbe Szene mit einem 120-mm-Objektiv vor, in kleine Segmente unterteilt. Der 20 Grad umfassende Blickwinkel des Teleobjektivs lässt sich in 64 Segmente aufteilen, was unter Berücksichtigung der notwendigen Überlappungsbereiche rund 100 Einzelbilder ergibt. Wenn Sie eine 10-Megapixel-Kamera verwenden, würde am Ende eine Bilddatei mit den Abmessungen 31.000 x 21.000 Pixel stehen. Das entspricht einer virtuellen Kamera mit einem 640-Megapixel-Sensor!

In der Praxis müssen Sie jedoch mit einigen schwerwiegenden Nachteilen kämpfen. Erstens kostet das Anstückeln viel Zeit und Geduld. Zweitens eignet es sich fast ausschließlich für statische Motive. Und drittens benötigen Sie einen extrem leistungsstarken Computer, um die nötigen Bearbeitungsschritte in akzeptabler Zeit durchführen zu können – das oben genannte Beispiel würde eine zwei Gigabyte große Bilddatei nach sich ziehen.

Dennoch bietet sich Stitching jederzeit an, wenn eine höhere Auflösung erforderlich wird. Sie benötigen dazu nur Zeit, Software und einen Stativkopf, der das Rotieren der Kamera um den virtuellen Brennpunkt herum erlaubt, so dass Perspektivenverzerrungen minimiert werden.


Eine Einzelaufnahme der Wolkenkratzer von Pudong in Shanghai, entstanden mit einer Brennweite von 80 mm auf einer 12-Megapixel-Kamera (4100x2800 Pixel).
 


Neun sich überlappende Einzelbilder derselben Szene mit einer Brennweite von 200 mm ergeben eine Bilddatei mit 15.300 x 4000 Bildpunkten – das entspricht einer Auflösung von 61 Megapixel.

Panoramaaufnahmen

Panoramabilder sind der wichtigste Anwendungsbereich für Stitching-Software – kein Wunder, denn die Ergebnisse sind aus vielerlei Gründen aufregend und beeindruckend. Panoramabilder sind deutlich breiter als hoch, wobei es keinen absoluten Richtwert für das Seitenverhältnis gibt – generell kann alles, was das 3:1-Format übertrifft, als Panorama gewertet werden. Warum sind Panoramabilder so beliebt? Möglicherweise hat das dieselbe Ursache wie die Popularität von Breitbildformaten in Film und Fernsehen – wir sind es gewohnt, großräumige Szenen wie Landschaften horizontal abzutasten und auf diese Weise mit unserem Blick zur erforschen. Panoramen vermitteln ein überragendes Gefühl für den realen Anblick der fotografierten Szene. Dabei sind keine Grenzen gesetzt – selbst 360° Rundumblicke sind durch eine volle Drehung der Kamera möglich.

In Sachen Bildkomposition können Sie von der Arbeitsweise der Cinematografen lernen. Eine beliebte Vorgehensweise ist das "Auseinanderziehen" der Komposition in die Breite. Anders als das herkömmliche 3:2-Format von Digitalkameras können Sie im Panoramaformat problemlos zwei oder drei Motive in einem Bild vereinen. Das Integrieren eines dominierenden Vordergrunds hilft dabei, dem Panorama mehr Tiefe zu verleihen und dem Auge noch mehr Details zum Erforschen zu offenbaren.

Panoramen funktionieren am besten mit großer Schärfentiefe über die gesamte Distanz hinweg, so dass unscharfe Bildbereiche vermieden werden sollten.

Ein wichtiger Nebeneffekt des Stitching ist die daraus entstehende, große Bilddatei mit vielen Details und deutlich höherer Auflösung, so dass sich auch das hochformatige Fotografieren lohnen kann. Auf diese Weise bestimmt die längere Bildachse die Höhe des Panoramabilds. Das einzige Problem bei dieser Vorgehensweise ist die richtige Stativhalterung – ich persönlich bevorzuge eine L-förmige Befestigung auf einem Stativkopf mit Schnellentriegelung.


Michael Freeman

Asiens größte LCD-Anzeige ist an der Decke eines Einkaufszentrums in Peking befestigt. Ihre Größe und Position erfordern einen stark angewinkelten Blickwinkel, so dass das fertige Panoramabild eine starke Verzerrungskurve aufweist, die den surrealen Eindruck der Szenerie zusätzlich verstärkt.
   

Das kreisförmige Haus des Hakka-Klans, Tulou genannt, befindet sich in der chinesischen Provinz Fujian. Seine große Ausdehnung und der eingeschränkte Blickwinkel machen es zu einem idealen Panoramamotiv. Mit einer Brennweite von 18 mm fertigte ich fünf Einzelbilder im Hochformat an. Eine zweite Sequenz diente dazu, die Bildtiefe zu erhöhen.

Ideale Überlappungsbereiche finden

Das Stitching per Software erfolgt in drei Arbeitsgängen. Erstens ermittelt das Programm die zueinander passenden Bildelemente in den Überlappungsbereichen, so dass die Einzelbilder nahtlos aneinandergereiht werden können. Zweitens werden die Tonwerte der Bilder angeglichen. Und drittens werden alle Quellbilder zu einem Ganzen verschmolzen.

Damit Schritt eins ordentlich ausgeführt werden kann, müssen die Überlappungsbereiche genug Details enthalten, damit die Software die Schnittpunkte problemlos ermitteln kann. Idealerweise fertigen Sie die Quellbilder mit schmalen Überlappungsbereichen an, um nicht mehr Bilder als nötig machen zu müssen. Scharfe, klar erkennbare Bildelemente sind von der Software leichter zu interpretieren als homogene Flächen ohne große Unterschiede, wie z. B. weiße Wände oder bedeckter Himmel. Ein Überlappungsbereich von rund 40 Prozent zwischen den einzelnen Bildern ist in der Regel ausreichend, wobei es auf den Detailgrad der Szene ankommt. Ich selbst erleichtere mir die Arbeit, indem ich die Quellbilder stets um die Hälfte der Bildbreite überlappen lasse. In der Praxis bedeutet dies, dass ein Objekt am Rand des ersten Bilds in der Mitte der zweiten Aufnahme wieder auftaucht. Da ich stets auf diese Weise fotografiere, gehen mir Panoramaserien recht schnell von der Hand – ich muss mir während der Aufnahme keine Gedanken über die Größe der sich überlappenden Bildbereiche machen.
   



Die vier Quellbilder von dieser Installation in einer Kunstgalerie überlappen sich um rund 40 Prozent. In jedem Überlappungsbereich finden sich genug Details, an denen sich die Stitching-Software orientieren kann.

Auf die Konsistenz in der Szene achten

Der zweite Schritt der Stitching-Prozedur ist, wie auf der letzten Seite beschrieben, das Ineinanderblenden der einzelnen Quellbilder, wobei sowohl die Tonwerte als auch die Farben angeglichen werden. Ein über alle Einzelbilder identischer Weißabgleich erleichtert der Software die Arbeit ungemein. Das gilt auch für weitere Einstellungen, darunter die Belichtungszeit. Aus diesem Grund sollten Sie den Automatikmodus der Kamera ausschalten und die nötigen Einstellungen manuell vornehmen. Eine Probeaufnahme hilft Ihnen beim Ermitteln der richtigen Werte für alle Einzelbilder.

Da in 360º-Grad-Panoramen meist eine oder mehrere Lichtquellen enthalten sind (besonders bei Außenaufnahmen an einem sonnigen Tag), können sich bei einigen Quellbildern beschnittene Lichter oder abgestumpfte Schatten einschleichen – der Dynamikbereich der Kamera wird überschritten. Die Lösung besteht in der Anfertigung mehrerer Aufnahmen mit unterschiedlicher Belichtung für jedes Einzelbild, die später zu einem HDR-Bild zusammengefügt werden.

Wie so oft, empfiehlt sich auch bei der Panoramafotografie die Verwendung des Raw-Formats, so dass Sie die nötigen Korrekturen direkt im Raw-Konverter vornehmen können. Eine interessante Technik ist das progressive Variieren der Farbbalance über das Panoramabild hinweg – zum Beispiel im Bereich eines Fensters mit der Einstellung "Tageslicht" und zum Innenraum hin mit der Variante "Kunstlicht". Die Stitching-Software blendet die unterschiedlichen Bilder dann nahtlos ineinander.
   

Dieses Beispiel demonstriert eine Vorgehensweise, die von der Grundregel des identischen Weißabgleichs abweicht.
Die vier Quellbilder wurden im Raw-Format mit automatischem Weißabgleich angefertigt, so dass sich die Farbtemperatur von links nach rechts verändert (1 = 5500K, 2 = 4500K, 3 = 4000K, 4 = 3300K).

 
Die rötliche Verfärbung am rechten Fensterrand wurde in der Bildbearbeitungssoftware durch das Ersetzen von Farben entfernt. Zum Vergleich: eine Aufnahme mit identischem Weißabgleich (Kunstlicht).

Den virtuellen Brennpunkt ermitteln

Normalerweise leistet die Software beim Überlappen zweier Bilder gute Arbeit, indem sie die nötigen, durch unterschiedliche Blickwinkel entstehenden Verzerrungen ausgleicht. Wenn es allerdings zu Parallaxverschiebungen kommt, die durch minimale Änderungen der Kameraposition entstehen können, entstehen möglicherweise Geisterbilder von Objekten im Vordergrund. Natürlich muss die Kamera beim Anfertigen einer Panoramaserie bewegt werden – doch ausschließlich um ihre Rotationsachse. Und diese Achse muss sich mit dem virtuellen Brennpunkt des Objektivs im Einklang befinden. Dieser Brennpunkt ist sozusagen der optische Mittelpunkt des Objektivs (der aber aufgrund der Linsenelemente nicht zwangsläufig in der physikalischen Mitte des Objektivs liegen muss). Bei einem Zoomobjektiv verschiebt sich dieser Punkt mit der Brennweite.

Mit einer simplen Trial-and-Error-Methode lässt sich dieser Punkt für jedes Objektiv problemlos ermitteln. Panoramahalterungen für Stative lassen sich auf bestimmte Positionen fixieren. Wenn sich der virtuelle Brennpunkt exakt mit der Rotationsachse der Halterung deckt, gibt es keinerlei Parallaxverschiebungen. Finden Sie im Sucher zwei nahe beieinander liegende, vertikale Konturen, wobei sich eine in unmittelbarer Nähe und die andere in weiter Entfernung befinden sollte. Drehen Sie die Kamera und behalten Sie den Abstand der beiden Konturen im Auge. Wenn sich dieser Abstand deutlich verändert, verschieben Sie die Kamera ein wenig nach vorne oder nach hinten, so dass der Abstand auch nach einer Drehung derselbe bleibt. Dies ist sehr gut anhand des Beispielpanoramas auf diesen Seiten zu sehen.
     

Bild 1 und 2 wurden bei einer Brennweite von 14 mm zur Ermittlung des virtuellen Brennpunkts angefertigt. Bild 3 diente als Referenz. Der Abstand zwischen dem Regenrohr und dem Fensterrahmen in Bild 1 weist auf eine deutliche Parallaxverschiebung hin, die durch Verschieben der Kamera nach vorne und hinten eliminiert wurde.

Der virtuelle Brennpunkt des Objektivs befindet sich exakt über der Rotationsachse der auf dem Stativ montierten Panoramahalterung.


URL:

Prioritäten setzen: Mehr Lichterzeichnung aus Digitalfotos herausholen

Prioritäten setzen: Mehr Lichterzeichnung aus Digitalfotos herausholen

Digitalkameras haben im Consumer-Knipsbereich mit Film geladene Kleinbildkameras so gut wie vollständig verdrängt, während im Amateur- und Profisektor immer noch einige Widerständler auf die chemische Lebensart schwören. Noch weisen Digitalkameras nämlich gewisse Schwächen gegenüber dem Fotografieren auf Film auf. Denen will der Highlight Priority Modus neuer Canon-Spiegelreflexkameras begegnen, der mehr Dynamik auch ohne HDR-Mehrfachaufnahmen und dem damit verbundenen Aufwand verspricht.

Mit ISO 100 normal belichtete Aufnahme. Das Gelb des Kirchturms ist in der Sonne etwas ausgebleicht, die Wolkenzeichnung am Himmel schwach. [1]
Mit ISO 100 normal belichtete Aufnahme. Das Gelb des Kirchturms ist in der Sonne etwas ausgebleicht, die Wolkenzeichnung am Himmel schwach. Vergrößern[2]

Der Belichtungsspielraum und Tonwertreichtum von Negativfilm gilt nach wie vor als unerreicht. Vor allem reagiert Negativfilm auf Überbelichtung (also auch auf besonders helle Partien oder "Lichter" im Motiv) mit allmählichem "Zumachen" oder einer verflachenden Gradationskurve. Digitalkameras neigen dagegen zu mehr oder weniger heftigem "Abschneiden" der Lichter, auch "Clipping" genannt – oder im Fotojargon: Ausfressen. In weniger extremen Fällen wird einfach nur die "Lichterzeichnung" beispielsweise eines Himmels blass und unscheinbar. Dagegen kann man aber einiges tun – mit besonderen Aufnahmetechniken und gegebenenfalls Nachbearbeitung in einem Fotoprogramm.

Um die Umsetzung hoher Motivkontraste in ein gut durchgezeichnetes Bild besser zu bewältigen wird heute gerne HDRI (High Dynamic Range Imaging) eingesetzt – das geht aber nur bei unbewegten Szenen und erfordert einen hohen Aufwand bei der Aufnahme – in der Regel mehrere unterschiedlich belichtete Bilder vom Stativ aus. Wenn sich im Bild etwas bewegt, schafft das Probleme.

Mit ISO 2oo (HPM) belichtet. Das Gelb des Kirchturms ist etwas satter, messtechnisch findet man in den Lichtern etwas niedrigere RGB-Werte. Der Himmel erscheint kaum verändert. [3]
Mit ISO 2oo (HPM) belichtet. Das Gelb des Kirchturms ist etwas satter, messtechnisch findet man in den Lichtern etwas niedrigere RGB-Werte. Der Himmel erscheint kaum verändert. Vergrößern[4]

Es gibt aber andere Möglichkeiten, mehr an Durchzeichnung als üblich aus einer Digitalaufnahme herauszuholen. Für Fotoamateure bieten die neuesten Kameras von Canon, die EOS 40D und die 450D, einen sogenannten HP-Modus (highlight priority modus oder HPM), auch "Tonwertpriorität" in der deutschen Sprachversion genannt. Die Wirkung dieser Aufnahmeart ist allerdings mit einem Gewinn von einer Blendenstufe in den Lichtern relativ gering und nicht dosierbar. Dafür funktioniert sie mit fertig aus der Kamera kommenden JPEG-Bildern ohne weitere Nachbearbeitung und ohne dass der Fotograf bei der Aufnahme sonst etwas einstellen oder beachten müsste.

Generell entstehen etwas weichere Fotos. Von den untersuchten RAW-Konvertern beherrscht dies allerdings nur Canons hauseigenes Digital Photo Professional (DPP). Ähnliches erreicht man mit absichtlich unterbelichteten Aufnahmen im RAW-Format und nachfolgender Bildbearbeitung mit entsprechendem Tonwertausgleich.

Das Verhältnis der Helligkeiten in einer Szene – oder, fotografisch gesprochen, der Objektkontrast – kann sehr gering sein – etwa 1:100 oder sogar erheblich weniger (diesiges Wetter, Nebel, Papiervorlagen), aber auch extrem groß, etwa bei sonnenbeschienener Landschaft, an die ein schattiger Wald grenzt, oder in Gegenlichtsituationen: Kontraste von 1:10.000 oder gar 1:100.000 und mehr sind möglich. Die letztgenannten Kontraste kann das menschliche Auge noch "gleichzeitig" erfassen (insgesamt ist sein Spielraum zwischen erfolgter Adaption im Mondschein oder einer Sonnenszene im Schnee millionenfach). Ein Landschaftsmotiv mit Sonne im Rücken kann sich dagegen im "normalen" Bereich 1:500 bis 1:1000 bewegen.


Gefühlter Kontrast

Fotopapier kann selbst nur einen Helligkeitsumfang von 5 bis 6 Blendenstufen (Kontrast 1:32 bis 1:64) zwischen Papierweiss und maximaler Schwärzung wiedergeben. Die Kunst der Ausarbeitung von Fotoabzügen oder Ausdrucken liegt also darin, den meistens höheren Belichtungsumfang der Aufnahme so zu beschneiden oder zu "verbiegen", dass ein kontrastreich wirkendes Bild entsteht und in bildwichtigen Motivteilen sowohl Lichter- als auch Schattenzeichnung vorhanden bleibt. Monitore können dagegen etwa. 8 bis 10 Blendenstufen darstellen (1:256 bis ca. 1:1000).

Mit ISO 100 aufgenommen, aber in Photoshop mit diversen Funktionen bearbeitet. Lichter und Himmel zeichnen deutlich besser, besonnte Kirchturmfläche wurde etwas zu rötlich. [5]
Mit ISO 100 aufgenommen, aber in Photoshop mit diversen Funktionen bearbeitet. Lichter und Himmel zeichnen deutlich besser, besonnte Kirchturmfläche wurde etwas zu rötlich. Vergrößern[6]

Da der Umgang mit diesen großen und exterm unterschiedlichen Zahlenverhältnissen unpraktisch und wenig anschaulich ist, verwendet man ein logarithmisches Maß, den Lichtwert (LW) oder englisch "exposure value" (EV), wobei ein Unterschied von 1 zwischen zwei Lichtwerten (also etwa zwischen 10 und 11) dem Faktor 2 entspricht und auch als "eine Blendenstufe" bezeichnet wird. Statt der Änderung der Blende von z. B. f/8,0 auf f/5.6 kann man auch die Belichtungszeit verdoppeln, etwa von 1/250 s auf 1/125 s. Man könnte also genauso gut von Zeitstufen sprechen. Eine Stufe "+" entspricht immer der Verdoppelung der Lichtmenge, eine Stufe "-" der Halbierung.

Ändert man an der Kamera die Kombination der Blende von f/8 und die Zeit von 1/250 sec "gleichsinnig" auf Blende f/5,6 und Belichtungszeit 1/125 sec, so hat man eine Änderung um zwei "Blendenstufen" oder EV-Werte und somit eine Vervierfachung der wirksamen "Lichtmenge" eingestellt. Eine "gegensinnige" Änderung der Ausgangswerte auf Blende f/11 und Belichtungszeit 1/125 sec oder auf Blende f/5,6 und Belichtungszeit 1/500 sec ergibt dagegen die gleiche Belichtung. Die Blendenzahlen selbst haben ein Verhältnis von 1 zu (Wurzel 2) oder 1:1,414 pro Blendenstufe, da sie das Verhältnis von Brennweite zur wirksamen Lichtdurchtrittsfläche angeben. Verdoppelt sich der Durchmesser der Blende, vervierfacht sich die Lichtmenge, die Blendenzahl hat das Verhältnis 1:2 (z. B. Blende 4 oder Blende 8). Daher decken diesen Bereich die "Blendenstufen" 4, 5,6 und 8 ab.

Diafilm hat einen Belichtungsumfang von etwa 6 Blendenstufen (Helligeitsverhältnis oder Motivkontrast 1:64) – das ist wesentlich weniger als das, was eine digitale Spiegelreflexkamera bietet, deren aktuelle Modelle im Amateur- und Mittelklassebereich heute bei niederer oder mittlerer Empfindlichkeit 9 bis 10 Blendenstufen schaffen (1:512 bis 1:1024); während Negativfilme etwa 10 oder 11 Blendenstufen (ca. 1:1000 bis 1:2000) verkraften – so groß ist der Unterschied also nicht mehr, zumindest nicht bei Farbfilmen.

Unangenehm ist allerdings eine Erscheinung bei der herausgekitzelten Wiedergabe der Schatten am unteren Ende des Belichtungsspielraums – Banding genannt, die Bildung von stufigen, klar getrennten Inseln unterschiedlicher Töne, die streifenförmig oder mit klötzchenartigen Begrenzungen auftreten können und damit sehr viel störender sind als grobes Korn bei hochempfindlichen Filmen. Auch das in den Schatten gerne auftretende "Farbrauschen" ist recht unästhetisch. So ist heute eine Verbesserung des Tonwertumfangs viel mehr herbeizuwünschen als noch mehr Pixel.

Lichtwertstufen, Blendenzahlen (1/3) und Belichtungszeiten

EV (LW) Blendenzahlen (in 1/3-Stufen) Belichtungszeit
-4 22 1/2000

20 1/1600

18 1/1250
-3 16 1/1000

14 1/800

13 1/640
-2 11 1/500

10 1/400

9 1/320
-1 8 1/250

7,1 1/200

6,3 1/160
0 5,6 1/125

5 1/100

4,5 1/80
1 4 1/60

3,5 1/50

3,2 1/40
2 2,8 1/30

2,5 1/25

2,2 1/20
3 2 1/15

1,8 1/13

1,6 1/10
4 1,4 1/8
(rot hervorgehoben sind die "klassischen" ganzen Blendenstufen-Werte)

Der Belichtungsspielraum der 40D beträgt rund 9,5 EV; bei der Fuji Finepix S5 pro sind es sogar 10 EV und mehr.


Kamera-Belichtungskurven

Moderne digitale Spiegelreflexkameras zeigen bereits eine "filmähnliche" Belichtungscharakteristik, die allerdings auf der Weiterverarbeitung der rohen Sensordaten (RAW) per Software in der Kamera oder auf dem PC beruht. Sieht man sich die sogenannten "Rohdaten" in einer RAW-Bilddatei an, ohne sie bildgerecht zu interpretieren, sondern nach einer "linearen" Konversion in eine TIFF-Datei, wird dies deutlich (siehe Kasten Diagramme). So eine "lineare" Konvertierung ist mit dem hauseigenen Programm "Digital Photo Professional" (DPP) von Canon möglich, oder mit dem Freeware-Konverter dcraw[7]. Gewonnen wurden die dargestellten Daten aus ganzstufigen Belichtungsreihen, die um je eine "Blendenstufe" (+/- 1 EV, siehe oben) gegenüber der mit 0 EV bezeichneten Belichtung auf eine Graukarte gewonnen wurden, und zwar im Bereich bis von -6 EV bis +4 EV (Unter- bzw. Überbelichtung, teilweise auch -7 EV bis + 5 EV). Es zeigt sich, dass der Sensor in der Kamera annähernd linear auf die Belichtung reagiert.

Für die spätere Wiedergabe der Bilder auf einem Monitor oder Drucker sind die Daten in dieser Form aber unbrauchbar. Das hat zwei Gründe: Zum einen können diese Medien den darin abgebildeten Belichtungsumfang gar nicht wiedergeben, zum anderen verschwinden bei der Reduzierung auf 8-Bit-RGB-Daten vor allem in den Schatten fast alle Nuancen (Zwischenstufen). Tatsächlich liegen die Rohdaten bei diesen beiden Kameramodellen in einem 14-bit-Datenformat vor.

Diese Nuancierung läßt sich bei der Konversion in ein 16-Bit-TIFF zwar erhalten, was auch sinnvoll ist, wenn man anschließend in einem Bildbearbeitungsprogramm noch weitere Bearbeitungsschritte vornehmen will. Als Endprodukt werden aber in der Regel 8 Bit pro Kanal benötigt (insbesondere in JPEG-Dateien, die für das Web bestimmt sind). Aus diesem Grund werden die Daten bei der Umwandlung in eine Bilddatei einer logarithmischen Konvertierung unterzogen, die mehr Werte für die Schatten und weniger für die Lichter reserviert. Das geschieht auch, wenn die Kamera schon ein fertiges JPEG abspeichert. Dies erkennt man auch an den Kurven in den folgenden Diagrammen.

Um ein Kontrastverhältnis in Blendenstufen umzurechnen, beispielsweise 1:10.000, benutzt man den 10er-Logarithmus * 3,32, das ergibt für log (10.000) * 3,32 = 13.28 Blendenstufen! So etwas schafft kaum ein Film und keine digitale Fotokamera, das menschliche Auge aber schon. Eher hätten wir schon bei 1:4000 = 12 Blendenstufen oder Lichtwerten (LW bzw. englisch EV) eine Chance, wobei das Auge sogar Kontrastverhältnisse von 100.000:1 oder 16,6 Blendenstufen gleichzeitig erfassen können soll. Die Umrechnung von Blendenstufen in ein lineares Helligkeitsverhältnis ist (mit jedem Taschenrechner) ganz einfach: Man berechnet die entsprechende Potenz von 2, also 2^Blendenstufen, z. B. 2^9,5 = 724.

Rohheiten

Das RAW-Format (Rohdaten) enthält direkt die digitalisierten Helligkeitswerte aus dem Sensor, also das, was "hinten herauskommt", wenn vorne die analogen Sensorspannungen mit einer bestimmten Verstärkung hineingeschoben werden. Einer Verdoppelung des Helligkeitswertes im Motiv entspricht also ein doppelter Zahlenwert (jedenfalls theoretisch). Die gezeigten Werte wurden durch eine Belichtungsreihe gewonnen, bei der eine Graukarte aufgenommen wurde.

Ausgehend von der gemessenen Belichtung (0 EV) wurden durch Verkürzung der Belichtungszeit um bis zu 7 Blendenstufen und durch Verlängerung um bis zu 5 Blendenstufen Messwerte für die einzelnen Blendenstufen ermittelt. Bei der üblichen Übertragung dieser absoluten Helligkeitsdaten in ein 8-Bit-Datenformat (RGB mit 3 x 8 oder 24 Bit per Pixel) werden nichtlineare Transformationen angewendet, die in erster Näherung einer logarhitmischen Skala entsprechen.

Der mittlere Grauwert in einem Motiv (definiert als eine Graufläche, die 18% des auftreffenden Lichtes reflektiert) sollte dabei auf den Wert 118 (im Bereich von 0 bis 255) abgebildet werden, wenn man ihn bei der Aufnahme anmisst und die Belichtung auf +/- 0 EV einstellt. Dieser Wert befindet sich etwas unterhalb der "Mitte" zwischen 0 und 255. Dagegen ist der lineare Wert für mittleres Grau sehr viel weiter im unteren Bereich des Werteraumes angesiedelt (etwa um 20 bezogen auf 8-Bit-Darstellung).

Darum sollte man bei der Belichtung den – am Histogramm ablesbaren – Belichtungsspielraum normalerweise so weit als möglich in den oberen Bereich legen, sofern dies nicht auf Kosten der Durchzeichnung in bildwichtigen Lichterbereichen geht. Denn dadurch stehen pro Blendenstufe wesentlich mehr Werte zur Unterscheidung von Graustufen (und Farbnuancen) zur Verfügung als im Falle einer knappen Belichtung.


HPM für mehr Lichterzeichnung

Das steht leider im Widerspruch zu dem Wunsch, eine möglichst differenzierte Zeichnung in den Lichtern zu erzielen. Das erste Diagramm zeigt die direkte (lineare) Reaktion der Kamerasensoren von EOS 40D und 450D. Da die aufgenommene Lichtintensität sich durch Verdoppeln der Belichtungszeit bei Aufnahme einer Graukarte von EV-Stufe zu EV-Stufe ebenfalls verdoppelt, steigen die Kurven exponentiell an.

Vergleich lineare RAW-Konvertierung EOS 40D/450D - normal und HPM [8]
Vergleich lineare RAW-Konvertierung EOS 40D/450D - normal und HPM Vergrößern[9]

Zu sehen sind zwei Schaaren von je drei Kurven: Links gelb (theoretischer Verlauf bei 0 EV), orange (450D) und dunkelgrün (40D) für eine Belichtung bei ISO 100, und etwas weiter rechts blau (theoretischer Verlauf bei Unterbelichtung um -1 EV), rot (450D)und grün (40D) für den HP-Modus (Tonwertpriorität) bei angeblichen ISO 200. Dargestellt sind jeweils die "linear" aus der RAW-Datei ermittelten Werte für verschiedene Belichtungsstufen.

Die gelbe Kurve zeigt die – einigermaßen passgenau angelegten – theoretisch zu erwartenden Werte für einen linear reagierenden Sensor, also eine Verdoppelung der absoluten Werte pro Blendenstufe, die blaue Kurve dieselben Werte um eine Blendenstufe nach rechts verschoben (Unterbelichtung).

Die orangefarbene Kurve der EOS 450D ist im Bereich von ca. +1 bis +3 damit fast identisch, zu den Lichtern hin verläuft sie etwas flacher, und in den Schatten etwas höher. Die dunkelgrüne Kurve (EOS 40D) ist in den Schatten mit der 450D fast deckungsgleich, ergibt im mittleren Lichterbereich minimal höhere Werte, verläuft aber bei den Spitzlichtern etwas flacher. Bei +5 EV tritt Clipping auf, hier bei einem ausgelesenen Wert von 219.

Kurvendiskussion

Bei der zweiten Kurvenschaar (blau: theoretischer Verlauf, rot: 450D, grün: 40D) für den HP-Modus verläuft die Kurve der 450D analog zur Belichtung bei ISO 100 und ist der theoretischen linearen Sensorreaktion sehr ähnlich, die Kurve der 40D zeigt einen minimalen Anstieg bei +4 EV mit anschließend flacher werdendem Verlauf bis hin zur Belichtungsgrenze bei ca. +5 EV, ist also wieder etwas weniger steil als die der 450D. Dass die Kurven für den HP-Modus generell etwa um eine Blendenstufe später ansteigen als bei ISO 100 entlarft den "Trick", den Canon hier anwendet – siehe Text und nächstes Diagramm.

Die 450D belichtet bei Messung auf die Graukarte bei 0 EV laut der so gewonnenen Sensordaten knapp zwei Drittel Blenden über. Für die Diagramme wurden ihre Werte gegenüber der Belichtungsmessung um 2/3 Blendenstufen reduziert aufgenommen und erscheinen im mittleren Bereich daher geringfügig kleiner als bei der 40D.

Trotzdem liefert sie in den Lichtern wieder höhere Werte – ihre lineare Sensorkurve verläuft steiler und eher so, wie die theoretische Kurve, während die 40D eine etwas deutlichere Abflachung zeigt, die sich im HP-Modus noch deutlich verstärkt. Die Belichtungswerte in der Tabelle für ISO 100 bei f/16 betragen für 0 EV bei der 40D 1/5 sec und bei der 450D 1/4 sec (resp. 1/10 versus 1/8 beim HP-Modus).


Technischer Hintergrund

Nach Erscheinen der 40D wurde schon bald vermutet, dass der HPM oder die Aufnahmeart "Tonwertpriorität" nichts anderes ist als Unterbelichtung um eine Blendenstufe und "pushen" der Sensordaten mit einer in den Lichtern sanfter verlaufenden Gradationskurve. Erzielt wird dies dadurch, dass der Ausleseverstärker vor der AD-Wandlung wie für ISO 100 eingestellt bleibt, dem Belichtungsmesser der Kamera aber eine Empfindlichkeit von ISO 200 vorgegaukelt wird. Daher sind die linearen Werte in der RAW-Datei bei der 450D/40D im HPM durchweg um eine Blendenstufe herabgesetzt und erreichen erst bei ca. +5 EV den Grenzwert, der sonst bei +4 EV auftritt (Clippinggrenze).

Dies erklärt auch, warum sich bei "Tonwertpriorität" keine geringere Empfindlichkeit als ISO 200 (Vorgabe für die Belichtungsmessung) einstellen läßt, denn bei angeblichen HPM ISO 100 müsste der Verstärker ja auf ISO 50 eingestellt werden, was die Hardware des Sensors aber nicht hergibt.

Vergleich lineare/logarithmische RAW-Konvertierung EOS 40D/450D - normal und HPM [10]
Vergleich lineare/logarithmische RAW-Konvertierung EOS 40D/450D - normal und HPM Vergrößern[11]

Das zweite Diagramm "Vergleich lineare/logarithmische RAW-Konvertierung" zeigt die sich ergebenden Gradationskurven bei Umsetzung in eine Bilddatei (8-Bit-RGB). Rechts noch einmal die linearen Kurven – rot und orange für die 450D, türkis und blau für die 40D. Sie fallen klar um eine Blendenstufe auseinander (im HP-Modus eine Stufe unterbelichtet). Daraus errechnet die Software (hier DPP von Canon) im Bereich der Schatten und Mitten fast deckungsgleiche Werte, die orange Kurve bleibt aber in den Lichtern (+3 bis +4 EV) deutlich unter der roten und setzt sich bis zur Clippinggrenze (255) bis +5 EV fort.

Man gewinnt also etwa eine Blendenstufe Überbelichtungs-Spielraum und eine (geringfügig) sanftere Durchzeichnung der Lichter. Allerdings geht in den Schatten auch etwa eine Blendenstufe an Dynamik verloren, da die Werte eher im Rauschen untergehen.

Mehr Bits für bessere Schatten

Der Belichtungsspielraum von Digitalkameras wird durch verschiedene Faktoren begrenzt. Die Werte, die sich aus einem elektronischen Sensor sinnvoll auslesen lassen, werden nach oben hin durch die Sättigung der Sensorelemente beschränkt. Weitere eintreffende Photonen können die gespeicherte Ladung nicht mehr erhöhen. Nach unten hin gehen die nach dem Löschen der gespeicherten Ladung vor dem Auslesen und nach der Belichtung zusätzlich gespeicherten Elektronen allmählich im Grundrauschen unter, das unter anderem durch thermische Einflüsse entsteht.

Ein weiterer Störfaktoren ist das Rauschen des Ausleseverstärkers selbst. Schließlich muss der nachgeschaltete A/D-Wandler (Analog zu Digital) auch in der Lage sein, die Spannungsdifferenz in klar unterscheidbare digitale Werte umzuwandeln. Auch der A/D-Wandler kann Rauschen hinzufügen, vor allem bei den kleinen Werten. Außerdem hat der A/D-Wandler nur einen begrenzten Werteraum (üblich 12 Bit, bei neueren Kameras wie den hier genannten 14 Bit), in dessen Abtastbereich die aus den Sensorelementen durch unterschiedliche Verstärkung (ISO-Empfindlichkeit) ausgelesenen Spannungen hineingeschoben werden.

In den Diagrammen drückt sich das dadurch aus, dass bei sehr geringen Belichtungswerten kaum noch unterscheidbare Zahlenwerte auftreten bzw. diese einfach 0 bleiben, und bei hohen Belichtungswerten eine bestimmte Grenze nicht überschritten wird, auch wenn die Belichtung weiter zunimmt. Da die linearen Werte von Belichtungsstufe zu Belichtungsstufe in den Schattenbereichen immer enger zusammenrücken, ist eine Erweiterung von 12 auf 14 Bit mit einem Gewinn von zwei Belichtungsstufen nach unten mit vergleichbarer Tonwerttrennung (Differenzierung von Schattierungen) verbunden – vorausgesetzt, das Rauschen des Sensors oder der Verstärker macht das nicht wieder zunichte. Und man kann diesen Gewinn auch nur nutzen, wenn man ein 16-Bit-Zielformat verwendet oder vor der Konvertierung nach JPEG oder einem sonstigen 8-Bit-Format beispielsweise eine Anhebung der Schatten vornimmt.


Kritische Motive

Testvorlage zur Untersuchung des Tonwert-Prioritäts-Modus mit kritischen "Lichtern" [12]
Testvorlage zur Untersuchung des Tonwert-Prioritäts-Modus mit kritischen "Lichtern" Vergrößern[13]

Für die Tests haben wir eine spezielle Testvorlage mit besonders hohen Kontrasten aufgebaut, die unter anderem aus schwarzem Samt (als Hintergrund), einer Farbkarte mit Grau- und Farbtreppen sowie glänzenden Gegenständen (zwei Christbaumkugeln, ein Möbelknauf und zwei mit Goldmetallic-Lack besprühte Gartenkugeln aus Plastik) besteht. Der Kontrastumfang zwischen dem schwarzen Samt und dem helleren Glanzlicht beträgt etwas über 9,5 Blendenstufen, zwischen Samt und dem matteren Glanzlicht knapp 8,5 Blendenstufen. Das sollte eine Digitalkamera also eigentlich noch verkraften können.

Allerdings wird der Belichtungsumfang nicht in jedem Fall bis zum Äußersten ausgenutzt – was auch sinnvoll ist, denn in den Schatten drohen stufige Tonwertwiedergabe und Rauschen, in den Lichtern Ausbleichen von Farben oder eben Ausfressen (Clipping) bei Erreichen des Grenzwertes. So werden auch "normale" Aufnahmen dieser Testvorlage ohne weitere Nachbearbeitung in den Schatten zulaufen und/oder in den Glanzlichtern ausfressen.

Um die "normale" oder auch abweichende Belichtung und den Kontrastumfang insgesamt zu ermitteln, haben wir eine mit im Bild befindliche Graukarte verwendet. Ein Problem solcher Motive ist, wenn – wie hier – der Abstand der Lichter vom mittleren Grau sehr hoch ist (hier +5,3 Blendenstufen für die großen Glanzlichter auf den Goldkugeln), denn dann muss man ziemlich stark unterbelichten, um ein Ausfressen der Lichter zu vermeiden. Dadurch werden "normale" Bildbereiche zu dunkel und müssen in der nachfolgenden Bildbearbeitung angehoben werden – im Prinzip das, was auch die Aufnahmeart "Tonwertpriorität" macht.

Detail aus einer Montage zweiter Aufnahmen des Testmotivs bei jeweils -0,6 EV, oben im "Normalmodus" bei ISO 100, unten HPM bei ISO 200. Die violetten Linienstücke verdeutlichen die Grenzlinie zwischen den beiden Aufnahmen. [14]
Detail aus einer Montage zweiter Aufnahmen des Testmotivs bei jeweils -0,6 EV, oben im "Normalmodus" bei ISO 100, unten HPM bei ISO 200. Die violetten Linienstücke verdeutlichen die Grenzlinie zwischen den beiden Aufnahmen. Vergrößern[15]

Bei entsprechenden Aufnahmen sollte man sich das Histogramm in der Kamera anschauen und auf die blinkende Überbelichtungswarnung achten. Dabei geht es vor allem um bildwichtige Lichter, die nicht ausfressen sollen bzw. noch Zeichnung und korrekte Farben haben sollen, etwa Himmel mit Wolken.

Belichtung nach Graukarte mit Überbelichtungsanzeige in den Lichtern (Adobe Camera RAW) [16]
Belichtung nach Graukarte mit Überbelichtungsanzeige in den Lichtern (Adobe Camera RAW) Vergrößern[17]

In den nebenstehenden Bildern zur Überbelichtungsanzeige bzw. Bereichshistogrammen (Screendumps von Adobes Camera RAW aus der Photosuite CS3) sind die überbelichteten Bereiche durch rote Warnfarbe markiert (Screendumps von ACR). Sehr schön ist auch das in ACR beziehungsweise in Photoshop mögliche Histogramm für frei wählbare Bildausschnitte. Damit kann man gezielt beispielsweise die Glanzlichter auf den Golkugeln überprüfen.

2/3 Blendenstufen unterbelichtet und HP-Modus. Nur noch die beiden großen Glanzlichter auf den Goldkugeln clippen. [18]
2/3 Blendenstufen unterbelichtet und HP-Modus. Nur noch die beiden großen Glanzlichter auf den Goldkugeln clippen. Vergrößern[19]

Bei Aufnahmen im HP-Modus erzeugt Adobe Camera RAW (grüne Linie) keine sanftere, sondern sogar eine steilere Gradationskurve als bei Aufnahmen im Normalmodus – ist also geradezu "kontraproduktiv". Die Kurve von DPP (rot) weit dagegen einen sanfteren Verlauf in den Lichtern auf. Zwischen +4 und +5 EV setzt Clipping ein.

Bei der EOS 40D kann man die "Tonwertpriorität" auf einen oder mehrere der benutzerdefinierten Aufnahmemodi am Programmwahlrad legen. Bei der 450D muss man leider immer ins Menü der sogenannten Individualfunktionen gehen, um das ein- oder auszuschalten, was recht umständlich ist. Immer eingeschaltet sollte man diese Betriebsart auch nicht lassen, denn Nutzen bringt sie nur bei kontrastreichen Motiven mit hohem Anteil bildwichtiger Lichter, ansonsten verschlechtert sie nur das Rauschen in den Schatten.

Vergleich der Konvertierung von Digital Photo Professional versus Adobe Camera RAW [20]
Vergleich der Konvertierung von Digital Photo Professional (DPP) versus Adobe Camera RAW (ACR) Vergrößern[21]

Wer es bevorzugt, im RAW-Format aufzunehmen und die Bilder selbst nachzubarbeiten (anstatt dies der Kamera zu überlassen und deren fertige JPEGs zu verwenden), wird nur mit dem Canon-eigenen DPP (Digital Photo Professional) glücklich werden. ACR von Adobe führt zwar die Aufhellung des Bildes um eine Blendenstufe in etwa korrekt aus, nicht aber die Gradationskorrektur der Lichter, um diese weichzuzeichnen – die Aufnahmen im HPM werden im Gegenteil sogar "härter" als ohne. Hier kann man zwar von Hand eingreifen, aber dann ist es praktischer, auf diese Betriebsart zu verzichten. Lieber bei der Aufnahme gegebenenfalls von Hand um etwa eine Blendenstufe unterbelichten und dies anschließend etwa durch Anheben der Bildhelligkeit ausgleichen.

Johannes Leckebusch

Kommentieren[22]

(cm[23]/c't)

URL dieses Artikels:
http://www.heise.de/foto/artikel/109429

Links in diesem Artikel:
[1] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/0
[2] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/0
[3] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/1
[4] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/1
[5] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/2
[6] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/2
[7] http://www.cybercom.net/~dcoffin/dcraw/
[8] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/4
[9] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/4
[10] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/3
[11] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/3
[12] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/5
[13] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/5
[14] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/6
[15] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/6
[16] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/7
[17] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/7
[18] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/8
[19] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/8
[20] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/9
[21] /foto/Prioritaeten-setzen-Mehr-Lichterzeichnung-aus-Digitalfotos-herausholen--/zoom/109429/9
[22] http://www.heise.de/foto/foren/S-Artikel-Foren/forum-134011/list/
[23] mailto:cm@ct.heise.de