13
Heute dachte ich „mich tritt ein Pferd“, als ich in einem Photoshop-Dokument einen Text einfügte und diesen unterstreichen wollte. Ich habe die Funktion beim besten Willen nicht gefunden ! Da es bestimmt auch anderen so ergeht, hier die Lösung (für die aktuelle Version 2021):
Text wie gewohnt erstellen, diesen dann markieren und über „Fenster“ -> „Zeichen“ kommt man zu den Optionen, die in der dritten Zeile von unten mit dem vorletzten Symbol, dem unterstrichenen T das Unterstreichen des Textes erledigt.
25
Jedem Lightroom-Anwender ist das Werkzeug „Freistellen und gerade ausrichten“ bekannt (Tastenkürzel >R<).
Gehen Sie mal mit einem Bild in den Entwicklungsmodus und wählen >R<. Standardmäßig sollte nun eine Überlagerung, nämlich das einfache „Raster“ zu sehen sein.
Aber weniger bekannt ist das Hilfsmittel „Freistellungsüberlagerung“. Kein Wunder, denn diese Funktion erreicht man weder im Kontext-Menü, noch in den Werkzeugoptionen, sondern – gut versteckt – nur über das Hauptmenü unter „Werkzeuge >Freistellungsüberlagerung“. Sie erreichen hier acht verschiedene Hilfsraster: Raster, Drittel, Diagonal, Zentrieren, Dreieck, Goldener Schnitt, Goldene Spirale und Seitenverhältnisse !
Um diese verschiedenen Überlagerungen aufzurufen, brauchen Sie aber nicht jedes Mal ins Menü zu gehen, sondern mit dem Tastaturkürzel >o< blättern Sie durch die einzelnen Überlagerungen und bei den Optionen »Dreieck«, »Goldene Spirale« sowie »Seitenverhältnisse« kann die Überlagerung mit »Shift-O« in unterschiedlichen Ausrichtungen angezeigt werden.
Wenn Sie den Umgang mit Lightroom oder Photoshop gerne in einem Kurs lernen wollen, hier finden Sie Angebote dazu (im unteren Teil der Seite): Kurse/Seminare/Workshops
24
Die Belichtungs-Messung
Generell hat die Belichtungsmessung die Aufgabe, ein „optimal belichtetes“ Bild zu ermöglichen. Was aber „optimal“ ist, müssen wir immer noch selbst entscheiden. Deshalb gibt es unterschiedliche Arten der Belichtungsmessung, damit wir für bestimmte Fälle entscheiden können, welche Art der Messung für die jeweilige Situation das bester Ergebnis liefert.
Vorweg sei darauf hingewiesen, dass man jede Belichtungsmessung noch selbst beeinflussen und korrigieren kann („Belichtungs-Korrektur“). Theoretisch könnte man auch sagen: mit etwas Erfahrung können mit jeder Messmethode identische Ergebnisse erzielen werden, indem man aktiv korrigierend in die Belichtungsmessung eingreift. Der eigentliche Sinn unterschiedlicher Messmethoden ist also lediglich, mit möglichst wenig oder keiner Korrektur zum gewünschten Ergebnis zu kommen.
Hierzu ist es notwendig, zu wissen, was mit den verschiedenen Messmethoden erreicht wird.
Grundsätzlich kann man von 4 verschiedenen Messmethoden ausgehen. Die Bezeichnung kann bei verschiedenen Herstellern unterschiedlich sein.
1.) Die Mehrfeldmessung (Canon), gleicht der Matrixmessung (Nikon)
Dies ist die komplexeste und leistungsfähigste Messmethode.
Die Belichtungsmessfelder (AE-Felder) sind wie eine Matrix nahezu über das gesamte Sucherbild verteilt (je nach Kameramodell zwischen 30 und 70 oder mehr Felder).
Das Besondere ist, dass bei dieser Methode auch die Autofokus-Felder (AF-Felder) mit einbezogen werden, indem alles, was scharf gestellt wird, besonders gewichtet wird. Ausserdem messen die AE-Felder nicht nur die Helligkeit generell, sondern auch die unterschiedlichen Farben in ihrer Helligkeit.
Diese Methode eignet sich daher insbesondere für bewegte Motive, bei denen der Autofokus das Motiv verfolgt und sich durch die Bewegung oftmals unterschiedliche Helligkeiten ergeben.
Ebenso geeignet ist diese Messmethode für Aufnahmen mit großen Kontrast-Unterschieden (helles Sonnenlicht) und Gegenlichtaufnahmen.
Es ist die ideale Messmethode für alle Aufnahmen, bei denen es „schnell gehen“ muss, da die Zusammenarbeit zwischen Belichtungsmessung und Autofokus der Kamera eine „zusätzliche Intelligenz“ verleiht.
2.) Die Selektivmessung
Diese Messung beschränkt sich lediglich auf einen kleinen Kreis in der Mitte des Sucherfeldes (ca. 10% der Fläche) , alle anderen Bildbereiche werden nicht erfasst, egal, wie hell oder dunkel sie sind. Auch der Autofokus spielt hier keine Rolle.
Die Selektivmessung kommt also immer dann in Frage, wenn es darum geht, den wichtigsten Teil des Bildes korrekt zu belichten, auch wenn dabei z.B. der Hintergrund zu hell oder zu dunkel wird. Dies ist oft bei Sportaufnahmen zu finden, oder in der Konzertfotografie, wo z.B. ein Musiker auf einer beleuchteten Bühne abzulichten ist.
Dennoch sei darauf hingewiesen, dass diese Messmethode zu Fehlbelichtungen führen kann, da auch die Helligkeitswerte unterschiedlicher Farben zu Fehlmessungen führen kann, hier insbesondere bei den Farben Rot und Gelb.
3.) Die Spotmessung
Diese Messung funktioniert genau wie die Selektivmessung, nur dass der Messbereich ein noch kleinerer Kreis um die Mitte des Sucherbildes ist, nämlich nur ca. 3% der Fläche. Somit erlaubt diese Messung eine äußerst präzise Messung eines kleinen Bereiches, die allerdings sehr schnell zu Fehlern führen kann, da eine auch noch so kleine Veränderung des Bildausschnittes zu eklatanten Fehlmessungen führt.
Anwendung findet diese Messung immer dann, wenn es sehr schnell gehen muss und sowohl Belichtung , als auch Schärfe des Hauptmotivs „auf den Punkt“ stimmen müssen, wobei die Umgebung weniger wichtig ist. Beispiele: Pressefotografie (Person im Auto), Sportfotografie.
Erwähnenswert ist die hier mögliche Verwendung der „AE-Taste“ (Messwertspeicherung), mit der man zunächst den Messwert des anvisierten Objektes festhält und danach den Bildausschnitt wählt.
4.) Die mittenbetonte Integralmessung
Sie entspricht in etwa der Mehrfeldmessung bei aktiviertem mittleren Autofokus-Feld.
Die mittenbetonte Integralmessung geht davon aus, dass sich der bildwichtige Teil des Motivs in der Mitte befindet, und bewertet diesen besonders, allerdings unter Beachtung des restlichen Sucherbereiches.
FAZIT: es gibt nicht „die beste“ Art der Belichtungsmessung, sondern je nach Motiv und beabsichtigter Wirkung muss man die Vor- und Nachteile der Messmethoden kennen, um sie zielsicher einzusetzen. Dazu gehört viel Experimentierfreude und dadurch gesammelte Erfahrung !
Auch hier wieder der Hinweis: wem das alles zu theoretisch ist, der sollte sich in einen meiner Workshops für Fotografie eintragen und kann so in praktischen Übungen die entsprechenden Fähigkeiten ausloten.
Im 3. und letzten Teil zu dieser Serie geht es um die manuelle Belichtungskorrektur, die wir immer dann anwenden, wenn die oben beschriebenen Messungen zu Fehlbelichtungen geführt haben.
03
Augen – Zähne – Lippen
Für diese drei Teilbereiche fallen sehr ähnliche Bearbeitungs-Methoden an, weshalb ich sie hier in diesem Kapitel zusammenfasse.
Bei den Augen geht es darum, das Weiß des Augapfels besser zur Geltung zu bringen, die Iris zu schärfen und evtl. die Augenfarbe herauszuarbeiten oder gar zu verändern.
Für das Augenweiß benutze ich folgende, einfache Methode:
- Auswahl des weißen Bereiches des ersten Auges mit dem Lasso (ich bearbeite beide Augen getrennt voneinander, damit ich am Ende die Helligkeit auch getrennt steuern kann). Der Auswahl gebe ich per „Auswahl -> Kante verbessern -> weiche Kante“ eine weiche Kante von 3px (variiert etwas mit der Dateigröße des Bildes). Diese Auswahl wird nun kopiert und per Einfügen als neue Ebene über die Arbeitsebene gelegt.
- Diese neue Ebene wird nun mit „Bild -> Korrekturen -> Farbton/Sättigung“ komplett entsättigt (den Sättigungsregler ganz nach links schieben)
- Nun wird diese Ebene in den Verrechnungsmodus „Negativ Multiplizieren“ gesetzt.
- Das Ergebnis ist natürlich extrem zu hell. Ich reduziere also die Deckkraft zunächst ganz auf „0“ und schiebe sie dann langsam wieder höher, bis ich den idealen Wert habe. Wichtig ist, dass man hier nicht übertreibt, da es sonst unnatürlich aussieht (weniger ist auch hier oft mehr !)
- Nun aktiviere ich wieder die Arbeitsebene und wiederhole diese Schritte mit dem zweiten Auge. Über die Deckkraft passe ich nun die beiden Augen in der Helligkeit so an, dass es mit dem ursprünglichen Licht auch hinkommt – meistens muss ein Auge etwas heller sein, als das andere, wenn das Licht von der Seite kam.
Die Iris wähle ich auch mit dem Lasso und weicher Kante aus und schärfe sie mit „ Filter -> Scharfzeichnungsfilter -> Unscharf Maskieren“. Hier benutze ich meist einen Radius von 0,2 und eine Stärke von 500%.
Zum Ändern der Augenfarbe kann man einfach eine Ebene über die Arbeitsebene legen und diese mit der gewünschten Farbe füllen und ihr dann eine negative Maske geben (Alt-Taste halten und auf das Masken-Symbol klicken). Danach kann man mit einem weichen, weißen Pinsel die Farbe auf die Iris übertragen und sodann die Deckkraft so reduzieren, dass das Ganze natürlich aussieht.
Die Zähne werden ganz genau so wie das Augenweiß bearbeitet. Kurzform: Auswählen mit weicher Kante, kopieren, einfügen, entsättigen, negativ multiplizieren, Deckkraft verringern.
Bei den Lippen geht es mir hauptsächlich darum, ihnen mehr Ausdruck durch einen stärkeren Kontrast zu geben und die Farbe des Lippenstiftes zu verstärken. Hierzu wähle ich die Lippen mit weicher Kante aus, kopiere sie auf eine neue Ebene und versetze diese in den Verrechnungsmodus „Multiplizieren“, danach auch wieder die Deckkraft entsprechend einstellen.
That’s it – Quick & Dirty !!!
02
Diese Technik (Abwedeln und Nachbelichten) wurde bereits in der analogen Zeit der Bildentwicklung im Labor eingesetzt, hier wurden mit Hilfe von Masken z.B. helle Bildbereiche abgedeckt und die verbleibenden dunklen Bereiche etwas länger belichtet, oder umgekehrt die dunklen Bereiche abgedeckt und die zu hellen Bereiche durch „Abwedeln“ weniger belichtet.
Heute bietet Photoshop hierzu zwei Werkzeuge an, das „Abwedler-Werkzeug“ hellt auf (Dodge), das „Nachbelichter-Werkzeug“ dunkelt ab (Burn).
Man kann diese Werkzeuge zwar direkt auf seinem Bild anwenden, was aber nicht empfehlenswert wäre, sie sind nämlich „destruktiv“, d.h. es werden die Pixel unwiederbringlich verändert. Die Werkzeuge werden wie ein Pinsel verwendet und haben zahlreiche Einstellungsmöglichkeiten für Härte, Deckkraft, Fluss und man kann auch unter drei Vorgaben wählen, ob sich die Auswirkung des Werkzeugs auf alle, nur dunklere (Tiefen) oder nur hellere (Lichter) auswirkt.
Dies führt bereits zur ersten „Hürde“: will man „non-destruktiv“ arbeiten, so geht das nur auf einer extra Ebene. Sinnvoller Weise kreiert man dafür eine neue Ebene über dem Portrait und weißt dieser den Verrechnungsmodus „Weiches Licht“ zu und füllt sie mit „Neutralem Grau“ (dafür gibt es in dem Dialog Ebene ->Neu->Ebene die entsprechend zu wählenden Parameter).
Durch den Modus „Weiches Licht“ wird von der neuen Ebene mit dem darunter liegenden Portrait alles verrechnet, was heller oder dunkler ist, als Neutralgrau – also in unserem Fall gar nichts – deshalb sehen wir unverändert unser Portrait wie vorher.
Male ich aber nun mit einem schwarzen Pinsel auf dieser grauen Ebene, so wird die schwarze Farbe sofort mit dem Portrait verrechnet, also wird der betroffene Teil dunkler. Mit weißer Farbe wird er heller.
Wichtig für das Verständnis dieser Technik ist: durch das „Malen“ verändert man hier keine Textur, sondern man hellt die vorhandene Textur auf, oder dunkelt sie ab! Man fügt keine Pixel hinzu, sondern verändert nur deren Helligkeit.
Man könnte natürlich auch auf einer transparenten Ebene das Gleiche machen – nur würde man da z.B. feine Pinselstriche mit schwacher Deckung überhaupt nicht mehr sehen können!
Ein großer Vorteil dieser Technik mit der Grauebene ist also, dass man zu jeder Zeit weiß, welche Bereiche des Bildes bearbeitet wurden. Selbst Pinselstriche mit sehr geringer Deckkraft sind auf der grauen Ebene sehr gut sichtbar.
Dies ist bereits alles, was man grundlegend zu dieser Technik wissen muss und man kann dadurch Licht und Schatten „malen“. Anstelle eines Pinsels, kann man natürlich auch mit den Werkzeugen „Abwedeln“ und „Nachbelichten“ arbeiten.
Der Rest ist Übungssache. Ich male grundsätzlich mit einem ganz weichen Pinsel, oft mit reduzierter Deckkraft und/oder reduziertem Fluss, damit ich mich mit mehreren Pinselstrichen dem gewünschten Ergebnis langsam nähern kann. Am Ende reduziere ich dann i.d.R. noch die Deckkraft der bemalten Grau-Ebene, da auch bei dieser Technik das Motto gilt: weniger ist oft mehr!
Diese Technik kann noch durch folgende Maßnahmen verbessert werden: statt nur einer Grau-Ebene kann man sich drei dieser Ebenen übereinander legen und alle drei in den Verrechnungsmodus „Ineinanderkopieren“ setzen.
Von unten nach oben nenne ich diese Ebenen „Tiefen“, „Mitteltöne“ und „Lichter“. Mit einem Doppelklick auf die Ebene „Tiefen“ werden die „Fülloptionen“ aufgerufen. Dort kann man im unteren Bereich den „Farbbereich“ auswählen, auf den die aktuelle Ebene wirken soll. Hier stellt man den Weißregler auf einen Wert von 85 ein – somit wirkt sich die Ebene nur auf die Tiefen aus. Der Übergang wird hierdurch aber sehr hart, weswegen man mit der „Alt“-Taste auf den Regler klickt und man ihn so „aufsplitten“ kann und praktisch zwei Regler bekommt, die man dann von 75 bis 90 einstellen kann. Der Schwarzregler bleibt unangetastet.
Die Ebene „Mitteltöne“ wird mit den gleichen Maßnahmen aufgerufen, hier stellt man aber beide (gesplittete) Regler ein und zwar den Schwarzregler auf 75-95 und den Weißregler auf 160-180.
Und schließlich stellt man in der Ebene „Lichter“ den Schwarzregler auf 160-180.
Somit kann man gezielter und detaillierter in den verschiedenen Helligkeitsbereichen arbeiten.
Zum Abschluß aber hier noch eine weitere Methode, mit der ich sehr gerne arbeite, nämlich mit Gradationskurven.
Ich erstelle mit gedrückter „Alt“-Taste (dadurch wird die Ebene direkt invertiert) zwei neue „Überlagerungsebenen ->Gradationskurve“ über meiner Portrait-Ebene. Die untere nenne ich „Tiefen“, die obere „Lichter“.
Nun dunkle ich die untere Gradationskurve in den Mitteltönen ab und helle die obere auf. Nun kann ich mit weißer Pinselfarbe in beiden Ebenen malen und so selektiv aufhellen oder abdunkeln. Und ich kann nachträglich die Gradationskurven ändern und so sehr feine Einstellungen bewirken. Meistens zeichne ich diese Ebenen noch mit dem „Gausschen Weichzeichner“ weich, dann sieht man die einzelnen Pinselstriche nicht.
Nicht unerwähnt bleiben darf in diesem Zusammenhang , dass diese Technik auch sehr effektiv angewandt wird, um Bilder insgesamt plastischer wirken zu lassen. Schließlich beeinflusst man damit die gesamte Lichtsituation, betont Lichter oder Schatten (oder fügt diese einem Bild zu). Oftmals überlagert man die „D&B-Ebene(n)“ noch mit weiteren Einstellungsebenen, um z.B. Kontraste zu bearbeiten. Hierzu bietet es sich z.B. an, eine Ebene aus den „Kanälen“ zu kopieren, um so auf einer (z.B. der Ebene des Blaukanals) schwarzweißen Ebene die Kontraste (und somit die „Störungen“) besser erkennen zu können.
Für heute soll diese Einführung in Dodge&Burn genügen.
Der nächste Teil in der Serie Portrait-Retusche zeigt ein paar kurze, aber wirkungsvolle Techniken zur Bearbeitung von Augen, Lippen und Zähnen.
01
Die >>ALT<<-Taste in Lightroom . . .
. . . ist wohl die wichtigste Zusatztaste beim Einsatz in Lightroom. Der Funktionsumfang wird durch sie ganz erheblich erhöht.
Hier einige Beispiele, wie Werkzeug-Buttons ihre Funktion ändern, wenn sie auf der Benutzeroberfläche mit gedrückter <<ALT<<-Taste angewandt werden:
- Aus dem Im- und Export von Bildern wird der Im- und Export von Katalogen.
- Bei vielen Funktionen wird mittels >>ALT<<-Taste die Einstellung des Panels zurückgesetzt. (Für die einzelnen Regler des Panels wird dies oft mit einem Doppelklick geregelt)
- Bei Stichwort-Sätzen kann man mit >>ALT-Nummer<< Stichwörter einfach per Tastendruck zuweisen.
- Beim Schärfen, speziell beim Wert für Maskieren aktiviert die >>ALT<<-Taste eine kontrastreiche schwarzweiß-Ansicht, die genau zeigt, welche Bereiche geschärft werden und welche nicht.
01
Eine ganze Reihe von Bildbearbeitungsprogrammen bieten an, sozusagen per Knopfdruck ein komplettes Bild zu bearbeiten.
Nun, ich bin da genauso skeptisch, wie bei den vollautomatischen Aufnahmeprogrammen der digitalen Kameras.
Allerdings muss ich natürlich auch zugeben, dass es manchmal sehr schnell gehen muss und dass es Korrekturen gibt, die inzwischen „per Knopfdruck“ so gut gelöst werden, dass es sich nicht lohnt, die Sache mit „richtigen“ Werkzeugen zu erledigen – man denke z.B. an die „rote-Augen-Korrektur“ !
Wir reden in diesem Beitrag von den „Auto-Korrekturen“. In Photoshop sind sie unter dem Menü <Bild> zu finden, als <Auto-Farbton>, <Auto-Kontrast> und <Auto-Farbe>. Viele Anwender kennen allerdings nur die direkte Anwendung dieser Funktionen direkt auf eine gerasterte Ebene. Deshalb hier der Hinweis, dass man hier auch einen anderen Weg gehen kann, der sehr viel flexibler und obendrein noch nicht-destruktiv ist, und zwar über eine Einstellungsebene, nämlich die Einstellungsebene <Gradationskurve>.
Dazu klicken Sie für die aktive Ebene das 4.Symbol unten rechts in der Funktionsleiste an und im sich öffnenden Submenü wählen Sie <Gradationskurven . . .>. Wenn Sie an dieser Stelle nun einfach auf „Auto“ klicken, würde eine automatische Korrektur der Gradationskurve vorgenommen werden.
Sie können aber auch mit gedrückter <Alt>-Taste auf <Auto> klicken und erhalten so eine Auswahl : nicht nur die drei oben bereits erwähnten Auto-Korrekturen, sondern sogar noch eine vierte, nämlich <Helligkeit und Kontrast> !
Der Vorteil dieser Art der Anwendung der Auto-Korrekturen liegt klar auf der Hand: man kann so alle automatisch korrigierten Kuven nachträglich anpassen.
23
High-Speed-Blitzen, Super-Sync-Blitzen
Sind Sie schon einmal an diese technische „Grenze“ in der Fotografie gestoßen: Sie wollen eine Person oder ein Objekt bei sehr starkem Gegenlicht (Sonne) fotografieren und dies mit offener Blende?
Die „klassische“ Vorgehensweise in solchen Fällen wäre es, die Verschlusszeit so anzupassen, dass der grelle Gegenlicht-Hintergrund (z.B. Himmel) richtig belichtet ist. Dabei kommen ohne weiteres Verschlusszeiten von tausendstel Sekunden zustande. Und das im Gegenlicht stehende Objekt wird zur schwarzen Silhouette ! Ein Dauerlicht zur Aufhellung müsste einige 1000 Watt Leistung bringen, um gegen das starke Sonnenlicht „anzukommen“. Eine Aufhellung mit einem eingebauten Kamerablitz oder einem Systemblitz ist zwar möglich, diese Blitze liefern aber nicht genügend Blitzleistung und sind bestenfalls noch für sehr nahestehende Objekte brauchbar. Es wäre also sinnvoll, hier die Kraft eines Studio-Blitzgerätes zu nutzen. Leider funktionieren diese standardmäßig aber nur bis zu der kameraseitig limitierten „Synchronzeit“ (sh. weiter unten).
Ein Lösungs-Ansatz wäre es, die „Synchronzeit-Bremse“ irgendwie zu eliminieren. Diese Vorgehensweise wird „Super-Sync-Blitzen“ genannt und hat stark „experimentellen Charakter“, wie wir im Weiteren feststellen werden.
Um in diese Thematik einzusteigen, muss man zunächst drei technische Zusammenhänge „durchschauen“, nämlich einmal die Arbeitsweise des Kamera-Verschlusses (Schlitzverschluss), zum anderen die „Blitzsynchron-Zeit“ und drittens die Abbrenndauer eines Blitzes.
1) Der Verschluss
Üblicherweise sind in die meisten Spiegelreflexkameras Schlitzverschlüsse eingebaut. Diese bestehen aus zwei „Vorhängen“, die zeitlich versetzt von oben nach unten über den Sensor wandern.
Beim Auslösen der Kamera setzt sich der erste Vorhang in Bewegung und öffnet so dem Licht den Durchgang zum Sensor. Nach Ablauf der gewählten Verschlusszeit setzt sich der zweite Vorhang in Bewegung und verschließt von oben nach unten wieder den Lichtzugang.
Bei längeren Verschlusszeiten ist der erste Vorhang nach der Auslösung komplett geöffnet und der zweite Vorhang verschließt irgendwann alles wieder. Bei kürzeren Verschlusszeiten wird irgendwann der Punkt erreicht, wo der erste Vorhang noch nicht ganz „unten“ angekommen ist, sich der zweite Vorhang aber bereits in Bewegung setzt. Es bildet sich also ein Ausschnitt zwischen den beiden Vorhängen, der nun von oben nach unten wandert und das Licht für den Sensor freigibt. Je kürzer die gewählte Verschlusszeit, desto schmaler ist dieser streifenförmige Ausschnitt. Und genau hier liegen die physikalischen Grenzen des Verschlusses: sehr gute Kameras können so eine Belichtungszeit von 1/8000sec und kürzer realisieren.
2) Unter Blitz-Synchronzeit (auch als X-Sync bezeichnet) ist die kürzest mögliche Zeiteinstellung für den Verschluss zu verstehen, bei der der Sensor noch komplett freigelegt ist, bevor der zweite Vorhang in Bewegung gerät. In diesem Moment des vollkommen offenen Sensors wird der Blitz gezündet. Logischer Weise sind längere Verschlusszeiten somit problemlos möglich. Stellt man aber eine kürzere Zeit ein, so verdeckt der zweite Verschlussvorhang bereits einen Teil der Sensorfläche, bevor der Blitz „zündet“, es entsteht also ein dunkler Rand am oberen Ende des Bildes, der umso größer wird, je kürzer die Verschlusszeit gewählt wurde. Bei guten Kameras liegt diese Synchronzeit bei 1/250 sec.
Die folgenden Abbildungen machen diese Vorgänge deutlich.
Abb.1 für Verschlusszeiten, die länger oder gleich der x-Synchronzeit sind
1 = Verschluss geschlossen, Sensor verdeckt
2 = erster Vorhang öffnet von oben nach unten
3 = erster Vorhang geöffnet, Sensor liegt komplett frei
4 = zweiter Vorhang läuft von oben nach unten
5 = zweiter Vorhang hat den Sensor wieder vollkommen verdeckt, Verschluss ist geschlossen.
Abb. 2 für Verschlusszeiten, die kürzer als die X-Synchronzeit sind:
1= Verschluss geschlossen, Sensor verdeckt
2= erster Vorhang öffnet von oben nach unten
3 = zweiter Vorhang läuft von oben nach unten, bevor der erste Vorhang ganz unten ist.
4 = erster Vorhang ist unten, zweiter Vorhang ist fast unten
5 = zweiter Vorhang hat den Sensor wieder vollkommen verdeckt, Verschluss ist geschlossen.
3) Die Abbrenndauer ist bei verschiedenen Blitzgeräten unterschiedlich kurz. Man kann feststellen, dass sie bei teuren Blitzgeräten sehr viel kürzer ist, als bei billigeren.
Genau hier setzt die Problematik des „Super-Sync“-Blitzens ein. Ist der Blitz bereits abgebrannt, bevor der Schlitz des Verschlusses die gesamte Sensorfläche überstrichen hat, bleibt ein Teil des Sensors unbelichtet.
Es gilt also, die Abbrenndauer eines Blitzes soweit wie möglich zu verlängern!
Ein Systemblitz, der mit der „High-Speed“-Funktion ausgestattet ist, macht das so: er zündet, die Abbrennkurve kommt nach kurzer Zeit an ihrem Höhepunkt an und kurz nachdem sie anfängt, wieder abzufallen, zündet der Blitz erneut. Das ist ähnlich, wie bei einem Stroboskop-Blitz – mit dem Unterschied, dass die Abbrennkurve nicht auf „Null“ abfällt und dann wieder neu gezündet wird, sondern sie bleibt im oberen Bereich und wird immer wieder neu gezündet, wenn sie abfällt – und das so lange, wie der Schlitz des Verschlusses unterwegs ist – es wird also Licht auf jeden Bereich des Sensors kommen, auch bei kürzesten Verschlusszeiten – es ist eine Art (pulsierendes) Dauerlicht über den gesamten Ablauf des Verschlussvorganges.. Leider geben die Systemblitze aber in diesem Modus nur eine sehr begrenzte Blitzleistung ab und wenn man bedenkt, dass von dem abgegebenen Licht nur das zur Wirkung kommt, welches durch den schmalen Schlitz des Verschlusses kommt (der Rest „verpufft“ am Vorhang selbst), dann wird klar, dass diese Ausbeute nicht wirklich wirkungsvoll und ausreichend ist und bestenfalls sehr naheliegende Objekte erreichen kann.
Viel besser wäre es also, wenn man die sehr viel höhere Leistung eines Studioblitzes nutzen könnte – dieser hat aber den Nachteil, dass er kein pulsierendes Dauerlicht zur Verfügung stellen kann und deshalb nur bis zur Synchronzeit „funktioniert“.
Ab hier bewegt man sich im „experimentellen“ Bereich und kommt nicht umhin, Versuche zu machen, wobei man sehr schnell feststellt, dass die Methode bei einigen Verschlusszeiten funktioniert, bei anderen aber wieder nicht! Und es gibt keine „Rezepte“ für bestimmte Kamera-Blitz-Kombinationen, weil selbst baugleiche Produkte gewissen Toleranzen unterliegen und wir müssen uns klarmachen, dass diese Toleranzen durchaus größer sind, als die Parameter, die notwendig sind, um diese „Überlistung der technischen Gegebenheiten“ zu bändigen. Mit anderen Worten: selbst mit zwei gleichen Kameramodellen und zwei gleichen Blitzen wird es unterschiedliche Ergebnisse geben! Jeder Fotograf muss also mit seiner ureigenen Ausrüstung experimentieren, bei welchen Verschlusszeiten und bei welchen Leistungseinstellungen des Blitzes zufriedenstellende Ergebnisse zu erzielen sind.
Ein wesentliches Hindernis ergibt sich durch die Tatsache, dass ein Studio-Blitz – ausgelöst durch einen herkömmlichen Funkauslöser über den Mittenkontakt des Blitzschuhs der Kamera erst zündet, wenn die Kamera „bereit“ ist, also den Verschluss in Bewegung setzt. Dies ist aber viel zu spät fürs Super-Syncen: die Leistungskurve hat ihren Höhepunkt bereits erreicht und befindet sich auf dem stark abfallenden Teil, es würde also ein zu starker Helligkeitsverlauf entstehen (mehr als 2 Blenden übers Bild verteilt). Abhilfe würde es schaffen, wenn man den Studio-Blitz über seinen optischen Sensor mit dem „Messblitz“ eines Aufsteckblitzes zündet und so dafür sorgt, dass der Studioblitz bereits zündet, bevor sich der Verschluss in Bewegung setzt. Nun befindet sich der Abbrennvorgang in der auslaufenden Phase, deren Kurve schon sehr viel flacher ist. Hierbei ist man jedoch sehr eingeschränkt durch die Lichtverhältnisse und Entfernungen. Eine weitere Möglichkeit bietet die Auslösung des Studioblitzes über die PC-Buchse eines Funkauslösers, der über diesen Weg ebenfalls das Signal des Messblitzes sendet. Mir ist zur Zeit nur ein Funkauslöser (für Canon) bekannt, der dies zuverlässig realisiert: der Yongnuo YN622. Dieser gibt das Signal über die PC-Buchse entsprechend des Signals für Vorblitze aus und dieses Signal reicht aus, um den Studioblitz zu zünden. Der YN622 ist ein „Transceiver“ – man benötigt also zwei davon, einen als Sender auf dem Blitzschuh der Kamera und einen als Empfänger, der über seine PC-Buchse mit dem Blitz verbunden wird.
Als Studio-Blitz kommen hauptsächlich „billige“ Studioblitze in Frage (z.B. Walimex), wegen der langen Abbrenndauer dieser Geräte. Ein „Porty“ (mobile Blitze haben i.d.R. längere Abbrenndauern als andere) wäre z.B. der Jinbei FL500, der ebenfalls lange Abbrenndauern hat.
Es geht nun darum, experimentell herauszufinden, welche Verschlusszeit mit der Abbrenndauer des Blitzes noch zu einer vernünftigen Belichtung führt und sich diese Werte dann zu notieren oder zu merken. Man kann hier keine Vorgaben machen, da jeder Blitz eine individuelle Abbrennkurve hat und auch die Kameraverschlüsse (selbst bei gleichen Modellen!) einige Toleranzen haben. Was man aber sagen kann ist, dass es umso besser funktioniert, desto länger die Abbrenndauer ist – mit anderen Worten: ein billiger Studioblitz (lange Abbrenndauer) hat größere Möglichkeiten, als ein teurer (kurze Abbrenndauer) !
Abschließend einige Ergebnisse meiner eigenen Testreihen zu dem Thema:
Zunächst habe ich einige Versuche im Studio gemacht mit einer EOS 5DIII, einem 50mm/1,2 – Objektiv, zwei Transceivern Yongnuo 622 und einem Walimex 260K. Dann mit einem älteren portablen Blitzgerät von Profoto (B2) und einem Profoto Pro-Head B2. Um es vorwegzunehmen: in beiden Fällen hatte ich brauchbare Ergebnisse bis 1/8000 sec bei ISO 50 und F=1,2 !
Im Detail:
Aufnahme 1: mit einem Blitz aus 2m Entfernung von oben links mit 1/1 Leistung (260WS), Standardreflektor ohne Softbox. Das Bild wurde vor einer weißen (!) Wand gemacht, die ca 3m hinter dem Model steht. Das Histogramm zeigt eine ausgewogene Verteilung von Lichtern und Schatten.
Aufnahme 2: zusätzlich Aufhell-Reflektor von rechts. Im Histogramm sehr schön zu sehen, wie der „Tiefenberg“ etwas weiter gestreckt und flacher wird, also die Mitteltöne etwas mehr Zeichnung bekommen haben.
Zum Abschluss noch zwei Aufnahmen mit dem Profoto-B2, der ebenfalls in allen Bereichen von 1/20sec bis 1/8000sec Verschlusszeit funktionierte:
Aufnahme 3: mit Profoto B2, ein Blitzkopf, auf ½ Leistung.
Lichtsetzung jetzt in Gesichtshöhe von 20° links, es fiel also noch Licht auf den ca 3m entfernten weißen Hintergrund.
Aufnahme 4: mit ½ Blitzleistung, diesmal mit 1/200sec.
Histogramm schon fast „ideal“.
Der Lichtabfall von links nach rechts deutet auf eine kürzere Abbrenndauer des Blitzes hin (im Vergleich zu den Walimex
Die gezeigten Testaufnahmen sollen lediglich „unter Beweis stellen“, dass es durchaus möglich ist, Verschlusszeiten jenseits der Synchronzeit – ja bis hin zum Limit des Kameraverschlusses – zu ermöglichen und somit mit offener Blende und ISO 50 alle Limits seitens der Kamera auszureizen und dennoch vernünftig belichtete Bilder zu erzielen.
In welchen Situationen dieses Wissen hilfreich ist, soll Thema eines anderen Workshops sein, in dem diese Technik Outdoor bei krassem Gegenlicht und sich bewegenden Objekten ausprobiert wird.
28
Schwierigkeitsgrad: einfach / Einsteiger
Der Colour-Key-Effekt
Wer glaubt, dieser Stil-Effekt sei ein Kind des digitalen Zeitalters, der irrt gewaltig. Enthusiasten der Schwarz-Weiß-Fotografie übten sich schon immer auch mit der Möglichkeit des Kolorierens, um diesen Effekt zu erzeugen. Hierbei ist es nämlich egal, ob einem schwarz-weißen Bild nun Farbe zugefügt wird, oder umgekehrt einem Farbbild Farbe entzogen wird – das Ergebnis zählt (wie so oft), nicht der Weg dorthin.
Wie aufwändig, kompliziert und anstrengend das Kolorieren von Schwarzweiß-Fotos war, ist indes Geschichte. Dank der digitalen Techniken lassen sich solche Effekte nun sehr einfach realisieren.
Natürlich führen auch hier sehr viele Wege zum Ziel. Im Beispiel gehe ich einmal auf die Bearbeitung eines Farbfotos ein, bei dem am Ende nur noch die Farben Grün, Gelb und Rot als solche sichtbar bleiben.
Bei der Auswahl des Bildes kann man sich schon eine Menge Arbeit ersparen, wenn man sich für ein Bild entscheidet, welches ohnehin schon wenig Farben enthält. Bei meiner Aufnahme (entstanden auf einer Fahrt in Richtung New York) herrschte Gewitterstimmung, die Sonne war durch schwere Wolken bedeckt, Farben sah man eigentlich nur noch durch elektrische Beleuchtung – bis auf die Farbe Grün, die auch bei diesen Bedingungen immer gut zu sehen ist.
Um es vorweg zu nehmen: bei dieser Arbeit habe ich es mir so leicht wie möglich gemacht:
1) Bild in Photoshop öffnen
2) Hintergrundebene duplizieren (STRG-J)
3) Ebenen-Kopie in schwarzweiß umwandeln (Bild->Korrekturen->Schwarzweiß)
4) Ebenenmaske erstellen ( im Ebenenbedienfeld auf die Schaltfläche „Ebenenmaske hinzufügen“ klicken)
5) Mit einem weichen Pinsel und mit schwarzer Farbe die Ebenenmaske an den Stellen übermalen, wo die Farben zurückgeholt werden sollen.
Dieses Verfahren ist für viele Bildvorlagen brauchbar, längst aber nicht für alle! Los geht es bereits bei der Überlegung, wie man sein Farbbild in ein schwarzweißes Bild konvertiert. Die Möglichkeiten hierzu sind so vielfältig, dass ich zu diesem Thema einmal eine eigene Abhandlung schreiben werde. Danach stellt sich die Frage, ob Farbe zurückgeholt oder neu „aufgetragen“ wird und schließlich, ob Originalfarbe, oder eine völlig andere Farbe eine Rolle spielen soll und ob nur eine, oder mehrere Farben ins Bild kommen.
Nur eine Farbe lenkt den Blick unwiderstehlich auf genau diesen Punkt, der Rest des Bildes verliert größtenteils an Aufmerksamkeit – hat aber in der Wirkung natürlich noch eine entscheidende Rolle.
Zum Schluss noch eine Anmerkung: dieser Stil-Effekt mag von vielen „belächelt“ werden, als „Effekt-Hascherei“ abgetan – insbesondere im Profi-Bereich gibt es hier viele Gegner, die diesen Effekt als reine „Spielerei“ abtun. Eines ist aber unbestritten: schaut man sich diese Bilder ohne Vorurteile an, so kann man die Faszination und die Anziehungskraft nicht leugnen.
Weitere Beispiele, die auf die gleiche Weise entstanden sind:
24
Schwierigkeitsgrad: mittel / Fortgeschrittene
Die Druckausgabe
Natürlich beschäftigt man sich als Fotograf auch intensiv mit der Weiterverarbeitung seiner Bilder, am häufigsten mit Fragen rund um den Druck. Sei es für Ausstellungen, sei es für Kunden, oder sei es für die eigene Wanddekoration.
Leider kursieren die wildesten Theorien über die richtige Vorbereitung eines Bildes für den Ausdruck. Deshalb möchte ich hier einmal systematisch vorgehen und einige Dinge aus meiner Sicht klarstellen.
Die sogenannte „Druckvorstufe“ beschreibt Arbeiten an einem Bild, welche dieses für die Ausgabe auf einem Drucker optimieren sollen. Hierzu zählen auf jeden Fall folgende vier Faktoren: erstens die Auflösung, zweitens die Dateiform, drittens der Farbraum und viertens das Schärfen.
Der wichtigste Punkt ist sicherlich die Auflösung. Fangen wir aber mit dem m.E. unwichtigsten Punkt, dem Schärfen eines Bildes an. Unwichtig heißt nicht unnötig: selbst ein genau fokussiertes Bild gewinnt mitunter an Wirkung und Qualität, wenn es nachträglich geschärft wird. Doch Vorsicht –hier muss man genau wissen, was man macht. Als erste Grundregel: das Schärfen kommt in der gesamten Bildbearbeitung als allerletzter Punkt, direkt vor dem endgültigen Abspeichern eines ansonsten fertig bearbeiteten Bildes.
Die Schärfungsmethoden mögen noch so vielfältig sein, eine Grundregel gilt jedoch für alle: das Bild muss in einer 100%-Ansicht auf dem Bildschirm sein! Alles andere führt zu Fehlern. Ich setze hier die Kenntnis der grundlegenden Schärfungsmethoden genauso voraus, wie das Vorhandenseins eines adäquaten Bildschirmes, an dem ich das Ergebnis meiner Bemühungen kontrollieren kann. Nach meiner bisherigen Erfahrung reicht es nun für Drucke auf glattem Papier vollkommen aus, wenn das Ergebnis am Bildschirm zufriedenstellend aussieht, also z.B. keine Überschärfung aufweist. Hingegen kann man bei Ausdrucken auf groben Papieren, Leinwänden oder Stoffen schon mal eine Überschärfung vornehmen, da die Auflösung durch die Struktur stark reduziert wird.
Kommen wir zum Dateiformat. Die wohl gängigsten Formate sind JPG, TIF und PDF. Das TIF-Format benutze ich für meine Bilder, solange sie in der Bearbeitung sind und ich sie öfters speichern und wieder laden muss. Enthält ein Bild Vektorgrafiken (z.B. Text), dann wird es im PDF-Format gespeichert, weil hier z.B. eine Vergrößerung/Verkleinerung keine Qualitätseinbuße erleidet. Fix und fertig bearbeitete Bilder, an denen keine Veränderungen mehr vorgenommen werden, speichere ich als JPG mit höchster Qualitätsstufe ab und so schicke ich sie auch an die Druck-Dienstleister. Wer meint, dass ein TIF mit sagen wir 8 Megapixeln eine bessere Ausdrucksqualität haben muss, als das JPG vom gleichen Bild mit sagen wir 1 Megapixel, der irrt ! Klar, die „eingesparten“ Daten gehen dem Bild irgendwo ab – aber sie werden durch gescheite Algorithmen an Stellen eingespart, die der Bildqualität in keinster Weise schaden! Im Gegenteil: es nützt dem Druckdienstanbieter herzlich wenig, wenn Sie ihm eine 100 MB-TIF-Datei schicken für einen 20x30cm-Ausdruck. Das Ergebnis ist nicht zu unterscheiden von dem gleichen Ausdruck mit einer 5-MB-JPG-Datei höchster Qualitätsstufe. Hüten Sie sich allerdings vor dem Trugschluss, dass Sie die Bilder dann gleich im JPG-Format fotografieren können. Das wäre ein fataler Fehler: intern belichtet die Kamera den Sensor mit Helligkeitswerten und speichert das gesamte Abbild des Sensors dann in einem herstellereigenen Roh-Daten-Format (RAW) ab.
Stellen Sie die Kamera so ein, dass sie „nur“ JPG auf Ihren Speicherchip ablegt, dann werden diese Rohdaten komprimiert. Diese Kompression hat zunächst auf das Aussehen des Bildes keine oder nur geringe Auswirkungen. Aber schon in dem Moment, wo Sie die Datei von der Speicherkarte auf Ihrem Computer übertragen, erfolgt eine weitere Kompression – dies ist die Eigenart der JPG-Algorithmen, bei jedem Speichervorgang wird das Bild (unter gleichem Dateinamen) immer wieder weiter komprimiert, wobei das Ausmaß der Kompression von der Einstellung der JPG-Qualitätsstufe abhängt.
Bei höchster Qualitätsstufe wird am wenigsten komprimiert. Probieren Sie es einfach mal aus: speichern Sie ein Bild (unter Beibehaltung des Dateinamens) als JPG und notieren Sie sich die Dateigröße. Dann öffnen Sie es wieder und speichern es nochmal ab. Wenn Sie das oft genug wiederholen, werden Sie Ihr Bild bald nicht mehr wiedererkennen…). Fazit: Aufnahme mit dem bestmöglichen Format, i.d.R. RAW. Speichern und Bearbeiten in TIF. Endgültige Version speichern und Druckausgabe in JPG. Ich persönlich hebe alle meine Aufnahmen übrigens im RAW-Format auf – für alle Fälle – das ist für mich so wie das „Negativ“ aus alten Zeiten! Gut, da geht etwas mehr Speicherplatz drauf – aber ehrlich: über mangelnde Speicherkapazitäten brauchen wir uns heutzutage wohl keine großen Gedanken mehr zu machen.
Kommen wir nun zu dem Punkt Farbraum.
Immer wieder lese ich bei einigen Druckdienstleistern, man solle die Bilder im CMYK-Farbraum schicken. Ich weiß allerdings nicht, was das soll! Moderne Drucker können mit 6, 8 oder gar 12 Farben drucken und kommen so auf eine Anzahl druckbarer Farben, die den CMYK-Farbraum um ein Vielfaches übersteigen. Ich kann daher nur empfehlen, im RGB-Farbraum zu bleiben. Die gebräuchlichsten sind der Adobe-RGB und der sRGB-Farbraum, wobei der Adobe-RGB-Farbraum der bei weitem größere ist. Diesen Vorteil kann man aber nur nutzen, wenn man „Farbmanagement“ betreibt und einen kalibrierten Monitor hat! Im Übrigen findet man im Internet so gut wie keine Bilddarstellung im Adobe-RGB, dort werden Bilder fast ausschließlich im sRGB-Modus dargestellt. Der Vollständigkeit halber möchte ich noch den eciRGB-Farbraum erwähnen, der aber ausschließlich der professionellen Umgebung vorbehalten ist.
Fazit: als „Normalanwender“ ist man im sRGB-Farbraum gut aufgehoben und erspart sich eine Menge Probleme mit dem Farbmanagement. Mit einem kalibrierten Monitor kann man sowohl seine Bilder so sehen, wie sie dann auch aus dem Drucker kommen und im Internet veröffentlichte Bilder sehen auch genauso aus.
Nun noch zum letzten Punkt, dem wichtigsten von allen:
Die Auflösung.
Oft höre ich als „Grundregel: mindestens 300dpi sollten es schon sein! Das ist – mit Verlaub – der größte Blödsinn überhaupt. Nach einiger Überlegung habe ich allerdings herausbekommen, woher diese Aussage wohl kommen könnte: das menschliche Auge hat nämlich bei normalem Leseabstand ein Auflösungsvermögen von etwa 300dpi. Und da haben wir schon mal ein ganz wichtiges Kriterium, wenn es um Auflösung geht: der Betrachtungsabstand! Eine schöne Fausformel gibt uns hierüber den nötigen Aufschluss:
Benötigte Auflösung=100:Abstand in Metern .
Der Abstand soll so groß sein, dass das Objekt in seiner ganzen Größe erfasst wird. Ein A4-Blatt erfasst man in seiner ganzen Größe z.B. aus mindestens 33cm. Die „ideale“ Auflösung wäre also 100:0,33 wobei wir bei den 300dpi wären! Ein Poster allerdings, von sagen wir mal 60x40cm, können wir nur aus 2m Entfernung als Gesamtbild wahrnehmen – somit wäre eine Auflösung von 50dpi ausreichend. Gehen wir näher an das Poster heran, sagen wir auf 1m Abstand, wäre eine Auflösung von 100dpi von Nöten – und gehen wir auf 50cm an das Bild heran (was ja wohl selten vorkommen dürfte) wären eben 200dpi ausreichend.
Als Extrembeispiel, zum besseren Verständnis dieser Gegebenheiten, möchte ich mal an die Projektionen von Riesen-Bildern auf z.B. Häuserfassaden hinweisen. Diese kann man nur aus einer ziemlichen Entfernung scharf sehen. Geht man an ein solches Bild auf ein paar Meter heran, kann man überhaupt nichts mehr erkennen, ausser vielleicht Helligkeitsunterschieden!
Die heutigen Labordrucker kommen bei Ausdrucken im Großformat mit 150dpi problemlos zurecht. Bei gleichbleibendem Betrachtungsabstand können diese Ausdrucke auch bei 100dpi, ja sogar bei 80dpi noch die gleiche Qualität haben für das Auge. Erst bei 60dpi bemerkt man dann die erste „Treppchenbildung“ als Qualitätsnachlass.
Auflösungen von 300-400dpi in der Endgröße eines Bildes kommen nur noch im Offset-Druck vor – und dort auch nur , wenn im 60er Raster (150lpi) im klassischen Bogenoffset-Druck mit Amplitutenrasterung gedruckt wird. Schon bei der frequenzmodulierten Rasterung greift das nicht mehr und schon gar nicht bei Digitaldruckern, die eine Vielzahl von Rastervarianten haben. Tintenstrahler mit RIPs oder Fotobelichtung auf Fotopapier nutzen eine völlig andere Rastertechnik, als der Offset-Druck.
Fazit: für den Ausdruck mit einem modernen Digitaldrucker oder Tintenstrahler ist eine Auflösung von 150dpi völlig ausreichend für den Großformatdruck. Bei Kleinformaten kann die Auflösung auf 300dpi eingestellt werden.
Bleibt noch zu klären, wie man das nun richtig einstellt.
In Photoshop öffnet man sein zu bearbeitendes Bild (z.B.im TIF- oder RAW-Format) und und wählt im Menü „Bild“ die „Bildgröße“. Nun sieht man im oberen Teil des Feldes die genauen Pixelmasse des Bildes, im Beispiel also 3648×2736 Pixel. Darunter steht die momentane Ausgabegröße, nämlich 38,61×28,96 cm bei einer Auflösung von 240dpi. Achten Sie zunächst darauf, dass das Häkchen bei „Interpolationsverfahren“ NICHT gesetzt ist.
Ändern Sie jetzt die Auflösung in 150dpi. Sofort wird auch die Ausgabegröße automatisch geändert, hier auf 61,77×46,33 cm, was als Ausgangswert für einen Posterdruck von 60×40 cm ideal ist.
Die endgültige Skalierung auf exakt 60,0×40,0 cm würde ich dem Druckdienstleister überlassen, da die Skaliermethode (Interpolation) dort auf den jeweiligen Drucker perfekt abgestimmt wird.
Abschließend sei noch angemerkt, dass diese Ausführung lediglich die „Basics“ behandeln kann und es noch viele weitere Themenbereiche zu diesem Gebiet gibt – man lernt auch hier NIE aus!!! Ich hoffe allerdings, dem einen oder anderen etwas mehr Mut gemacht zu haben, seine Bilder ruhig mal im Großformat ausdrucken zu lassen….In diesem Sinn, weiterhin „Gut Licht“ !
Neueste Kommentare