Posts by GeorgeTheMerlin

Im Rahmen der neuen Europäischen Datenschutzbestimmungen, haben auch wir unsere Datenschutzrichtlinie mit Wirkung zum 25. Mai 2018 für alle Besucher, Nutzer unserer Website aktualisiert. http://projectsforum.de/neu/index.php?datenschutzerklaerung/ Die Änderungen umfassen eine genauere Aufklärung darüber, wie wir deine Daten verwenden, einschließlich deiner Auswahl- und Kontrollmöglichkeiten und deiner Rechte. Ab dem Stichtag unterliegt deine weitere Nutzung unseres Forums der neuen Datenschutzrichtlinie. Hast du Fragen dazu? Rufe uns einfach an unter 06461/989877, oder schreibe uns eine Nachricht an stefan@stefan-runkel-online.de Herzliche Grüße! Dein Projectsforum-Team

    Das mit dem Drizzling in der Praxis interessiert mich auch!


    Die Modi sind ja:

    1 Aus der Hand

    2 Aus der Hand mit 5 Achsen Stabilisator

    3 Stativ mit Handauslösung einzeln

    4 Stativ mit Fernauslösung und Serienbildfunktion

    5 Stativ mit Bildstabi (soll bei meinem funktionieren).


    Die Vermehrung an Details beraucht ja Aufnahgmen mit Pixelunterschieden. Die Kameras, wenn sie diese Funktion haben, benutzen ja, wie gesagt, Sensorbewegungen. Also ganz ohne Verwackelungen gehts nicht - diese machen aber das Bild etwas weicher. - Optomal wäre wohl eine Verwackelung, wo nicht Drehung und Verschiebung gleichzeitig sind. Da könnte ich mir z.B. Stativ mit etwas kräftigerer Handauslösung vorstellen.


    grüssli merlYnn

    Naja - habe ich wirklich ungünstige Aufnahmesituationen, kann ich mit Denoise Dark Frames aufnehmen - oder mit Serienbildern Noise Stacking betreiben, bei gleichzeitiger Auflösungsvergrößerung.


    Dann habe ich die Maskierungsmöglichkeiten von Denoise oft gebraucht, diese Luminanzmasken unter jedem Entrauschungsfilter, wenn ich zum Beispiel nur Schattenbereiche entrauschen musste.


    Weiter habe ich häufig mit dem Filter "Lücken auffüllen" arbeiten können, wenn ich mit dem Radius Regler genau den Radius getroffen hatte, der bei Iteration 1 alle Lücken füllte.


    Meine neue Fuji verhält sich wieder völlig anders als meine alte Nikon: mehr Luminanzrauschen mit gutartiger Körnung, weniger Farbrauschen, und vor allem SEHR viel weniger von allem. Da kann ich mit Denoise speziell genau das einstellen, was ich auch brauche, je nach Kameramodell und Aufnahmesituation.


    Dann die speziellen Enrauschungsfilter wie Banding.


    Bei CAs bin ich ebenfalls froh, wenn ich diese Behandlung selektiv auf Bildbereiche mit den hohen Kontrasten anwenden kann. Also, dass ich die CA Filter auch im Expertenmodus habe.


    Frage ist: was davon ist mit DxO möglich?

    Ich habe mir mal das Video DxO angesehen - und finde so einen Vergleich ziemlich problematisch, da ja schon inhaltlich viele andere Schwerpunkte gesetzt sind.


    Denoise ist ja kein RAW Entwickler, sondern enthält als Zusatz einen speziellen RAW Entwickler mit einer ganz speziellen Philosophie: nämlich so wenig wie möglich vom Programm aus in das Bild hineininterpretieren. D,h,. ich selber habe die möglichst größte Kontrolle über die Entwicklung. Dafür könnte einiges sprechen.


    Dann gibt es RAW Entwickler, wie Capture One, welches eine gewisse Eigenentwicklung hat, die aber bei Profis sehr gut ankommt. Wenn so ein Programm dann intensiv eine Zusammenarbeit mit meiner Kamera Marke hat, im Bezug auf Objektiv Entzerrung, Farben, da also direkt Daten vom Kamerahersteller bekommt, dann könnte einiges dafür sprechen. Das ist dann aber noch kein Entrauschungsspezialist.


    Damit sind wir also immer noch nicht bei Denoise, was ja ein Entrauschungsspezialist ist mit Zusatzfunktionen: Astro, Dark Frames, Verrechnung zu höherer Auflösung, Composing Modul und und und ....


    Weiter habe ich im Video über DxO eine "Verbesserung" gesehen, das Bild mit dem Schiff, welches für mich fast aussah, wie ein darübergelegtes LUT. Wenn es um die Look Optimierung geht, da haben die Projects Reihen eigene Spezialisten, womit ich flexibler wäre.


    Also muss man hier differenzieren, was da genau gemacht wurde, auch unter der Haube.


    Dann könnte man ja das reine Entrauschen vergleichen, müsste dann aber sehen, dass da kein anderer Look in einem Programm daübergelegt wird. Dann hat Denoise ja Einstellmöglichkeiten, wo das Ergebnis zur Wahl steht. Weiter müssste man untersuchen, ob DxO alle 7 Rauscharten kann.


    Also: Vergleichen kann man vielleicht einiges, wenn man gleichzeitig weiß, wie problematisch das ist: wenn DxO Module und interne Verarbeitungsmodi hat, die bei den Projects Programmen in anderen Programmen sind - und Denoise Funktionen, die DxO nicht hat.


    Was da wohl gar nicht geht, ist ein Pauschal-Urteil.


    grüssli merlYnn

    Das ist schon alles blöd.


    Ich finde, die Webinare haben ein sehr hohes Niveau, machen Spaß und die Vortragenden haben da viel Engagement und Arbeit reingesteckt. Dass da vom Dienstleister eine so schlechte Qualität rüberkommt, dass es diese ganze Arbeit wieder so runterzieht, sollte nicht sein.

    Ich hatte gestern mal den Verlag angeschrieben und heute um 8 Uhr eine Antwort bekommen, die etwas pessimistisch klang. Es wird dran gearbeitet, der Webinardienstleiter konnte aber noch keine Lösung für das Problem nennen. Die aussstehenden Webinare würden auf jeden Fall gesendet werden. Danach würde der Versuch aller Vorraussicht nach eingestellt werden.


    Naja - zumindest können die Webinar Autoren jetzt auf das Problem hinweisen, dass der schwarze Peter für die Bildqualität nicht bei den Bildprogrammen ist.


    Dann hoffe ich mal, dass da noch eine Lösung gefunden werden kann - oder der Verlag einen anderen Anbieter findet. Wie gesagt: früher gab es das Problem ja nicht. Und die Webinare sind ja für alle Seiten wichtig.


    Gruß merlYnn

    Gerade habe ich das Webinar von Gerhard Middendorf gesehen. Dasselbe Resultat: Inhalt und Vortrag sehr gut - Bildqualität FÜRCHTERLICH!!! Besonders den glatten Flächen Tonwertabrisse, Kacheln und Wolken und Schlieren.


    Als Werbung für ein Bildbea Programm ist das natürlich ABSOLUT kontraproduktiv und ein absolutes NoGo. Genau das, was man zeigen will: gute Bildqualität, wird von dieser Übertragung übelst verschlechtert. Und immer genau auf die gezeigten Bilder. Ich war echt erstaunt über diese absolut schlechte Bildqualität - und frage mich, wie das auf Leute wirkt, die die Programme noch gar nicht kennen.


    Das ist natürlich toll, wenn z.B. Michael entrauschte Bilder zeigen will - und irgendein brutal PRIMITIVER Komprimierungsalgorithmus zaubert ausgerechnet in alle glatten Flächen wieder irgendwelche Artefakte rein.


    Bei dem Middendorf Seminar kann ich nichtmal beurteilen, ob das, was er da gezaubert hat, überhaupt gut oder schlecht war. Zu viele Artefakte, RGB Farbwertabrisse - das hat dann den Eindruck, als ob der Referent Bildbearbeitung nicht richtig kann, oder jemand nicht richtig fotografieren kann - wenn man es nicht besser wüsste.


    Also: im Sinne von guter Werbung müsste der Punkt aber unbedingt schnell geändert werden!


    grüssli merlYnn

    Internet Download Geschwindigkeit 50MB/s

    -> Arbeitsspeicher 16 GB

    -> Genutzter Browser: Firefox

    -> Betriebssystem: Windows 10 mit allen Updaes.


    Die Übertragung war nicht gut. Manchmal kamen bei den entrauschten Bildern Artefakte rein - dann wieder raus und rein und raus ... vielleicht kann Hartmut dem Michael ja die Aufzeichnung zuschicken?


    Inhaltlich war das Seminar aber sehr interessant und auch sehr gut vorgetragen, hierfür mal ein Lob! Dass da ein ganz neuer Algorithmus auf der Basis von Farbe arbeitet - ohne Webinar würde man diese Neuerungen gar nicht so deutlich mitbekommen. Klar wurde aber auch, dass nur das Gröbste behandelt wurde, und noch vieles offen ist! Da könnte man bestimmt eine Staffel draus machen!


    Mich interessiert auch diese Möglichkeit, mit vielen Bildern die Auflösung zu erhöhen, ob sich auch da etwas verändert hat. Wird diese Auflösungserhöhung eigentlich zusammen mit dem Noise Stacking gemacht - oder ist es ein entweder oder?


    grüssli merlYnn

    Hallo Michael,


    klaro - auf Sharpen#4 wird ja schon gewartet :) und man muss auch Dinge zum Abschluss bringen.


    Leider wurde meine Bildreihenfolge ziemlich durcheinandergewürfelt, dass es nicht mehr so schön zum Durchblättern zusammenpasst.


    Bei Farbkreisen sind ja in der Bildbearbeitungs Szene Goethe und RGB aktuell. Die Technik, die Farbharmonien zusammenzustellen ist indes immer gleich, es geht da immer um gleiche Winkelabstände von einer Mitte - oder um 180 Grad bei Komplementärfarben und zweimal Komplementärfarben (also vier Farben).


    Ebenso ist das Farbspektrum selbst wohl auf allen Farbkreisen gleich - nur die Verteilung der Farben ist jeweils anders. Dabei sind immer die GRUNDFARBEN eines Farbkreises bei 0 Grad (immer Rot), 120 Grad und 240 Grad. Je nach den Grundfarben - sind diese Rot, Gelb, Blau, wie im Goethe Farbkreis - oder Rot, Grün, Blau, wie im RGB Farbkreis - ergibt sich daraus eine andere Verteilung des Farbspektrums auf dem Kreis - und andere Farbharmonien.


    Den RGB Farbkreis könne man als technisch bezeichnen: gegenüberliegende Farben löschen sich exact aus.


    Der Goethe Farbkreis ist eine systematische Verteilung des Farbspektrums, vollständig von Itten beschrieben. Hier geht es um künstlerisch gefällige Harmonien, wie Farben optimal nebeneinander wirken und im Bild miteinander kommunizieren. Mit diesem sollte man hauptsächlicvh arbeiten und seine Farben abstimmen.


    Dann gibt es vielleicht noch einen mehr biologischen Farbkreis, von Küppers. Dieser orientiert sich bei den Komplementärfarben am "Nachbild", also wenn wir eine Farbe betrachten, und dann schnell eine weiße Fläche betrachten, dann erscheint die Komplementärfarbe. Die ist aber bei Rot zum Beispiel nicht Grün oder Cyan, sondern etwa Lindgrün. woran liegt das? Klar, unsere Augen funktionieren nach dem RGB Prinzip. Die WEITERLEITUNG ANS GEHIRN geschieht aber, vergleichbar wie bei der Fernsehtechnik, mit den 3 Kanälen Luminanz, Blau Gelb Anteil, Rot-Grün Anteil. Diese Informationen werden vom Gehirn zu Farben verrechnet. Daher ist die Komplementärfarbe, die wir als Nachbild sehen, nicht die exacte physikalische Komplementärfarbe, auch nicht die von Goethe.


    Alle drei Farbkreise haben ihre Berechtigung und lassen sich meiner Meinung nach begründen. Vom Küppers Farbkreis habe ich in der Bildbearbeitung aber noch nie was gehört. Experimentell fände ich das auch mal interessant.


    Besser als diesen Streit um die "Richtigkeit" von Farben finde ich, die WIRKUNGEN dieser unterschiedlichen Farbharmonien herauszustellen und bewußt einzusezten. Provokative, herausstechende Bildaussagen, Werbung, auffällige Logos, würde ich mit RGB Harmonien unterstützen, mehr künstlerisch malerische Bilder, Fotos, Editorial, dann wieder mit Goethe Harmonien.


    Neben dem reinen Hue Wert - diese sollten zuallererst stimmen - haben Farbharmonien aber auch Gewichtungen der einzelnen Farben, Gleichgewichte usw. Gewichtungen ergeben sich aus Sättigung und Farbfläche.


    Interessantes Thema jedenfalls!


    grüssli merlYnn

    Color Grading mit Farbharmonien funktioniert allerdings mit Ausmaskieren, Entscheidungen, was ich wie womit einfärbe. Farbharmonien auf LUTs anwenden, halte ich für ein spannendes Experiment. Hier werden aber mehr Bildstimmungen erzeugt. Besser werden Farbharmonien aus drei Farben und vier Farben funktionieren.


    Das werde ich dann auch noch ausarbeiten und hier teilen - aber nicht mehr mit einem so ausführlichen Artikel wie hier :)


    Dann wünsche ich viel Spaß beim ausprobieren.


    grüssli merlYnn

    So - und hier das obige Bild, durch alle LUTS der Komplementärfarben geschickt. Intensitätsregler auf Anschlag.


    Vergleicht mal, ob es für euch Unterschiede gibt, zu den zwei "Farb-Auffassungen". - Allerdings habe ich hier schon sehr Farbgewichtungen und Kontraste harmonisiert. So kann auch ich wohl manchmal auch RGB Harmonien verwenden :)

    Grob gesagt, sind Komplementärfarben ein Farbenpaar, welches sich nicht schwächt, sondern wo die Farben am intensivsten leuchten. In einem Farbkreis, welcher das ganze Farbspektrum wiedergibt, befinden sich die Komplementärfarben immer genau gegenüber. Leider gibt es seit Goethe und Newton einen Streit, welcher Farbkreis denn für unsere Kunst nun der Richtige ist. Beim RGB Farbkreis (Newton), den wir von der Bildbearbeitung her kennen, löschen sich Komplementärfarben gegenseitig aus, ihre Mischung ergibt also Grau.


    Goethe, später Johannes Itten, haben einen Farbkreis entwickelt, der künstlerisch gefälligere Farbharmonien zeigt. Die Komplementärfarben löschen sich nicht exact aus - wir empfinden sie aber als harmonischer, während mir die Farbharmonien des RGB Farbkreises schreiender, agressiver vorkommen. So glaube ich, dass Leute aus der Webebranche und auch Grafik Designer die RGB Farbharmonien benutzen. Leute aus der Beauty- und Fashionindustrie hingegen, Künstler und Maler, benutzen die Goethe Farbharmonien.


    Ich würde so argumentieren: bei den Farbharmonien geht es doch nicht um das Thema Farbmischungen, also nicht um das rein technisch- physaikalisch exacte Auslöschen der gegenüberliegenden Farben, es geht doch vielmehr darum, wie die Farben NEBENEINANDER auf uns wirken. Also nicht Farben durcheinander gemischt - sondern Farbwirkung von Farben, die in einem Bild benachbart sind, oder miteinander kommunizieren. Ich mag die Goethe Harmonien, und würde fast wünschen, dass diese auch mehr in die Bildbearbeitungsprogramme eingehen könnten. Zum Beispiel einen HSL Schieber, der den Goethe Farbkreis benutzt, (Rot=0Grad, Orange=60Grad, Gelb=120Grad, Grün=180 Grad, Blau=240Grad, Violet=300Grad, Magenta=330Grad). Damit könnte man ein Bild mit bearbeiteten Goethe Harmonien durch den Farbkreis schicken - ohne dass es diese Harmonien durch einen RGB Kreis zerbröselt werden usw :)


    Farb-Gurus, wie Natalia Taffarel, lehren die Bildbearbeiter unbedingt die Goethe Harmonien - Markus Wägner, der von Grafik Desingn her kommt und vieles über Faben veröffentlicht hat, findet den Goethe Farbkreis hingegen beliebig - und nur den RGB Farbkreis physikalisch begründet. Und diesen Streit gibt es nun schon seit Goethe-Newton.


    Ich habe hier mal für euch mal LUTs erstellt, mit Komplementärfarben. Diese habe ich aber nicht Tonwerten zugeordnet (sogenanntes Split Toning, oder Verlaufsumsetzung, das mache ich später mal) - sondern ich habe den zwei Komplementärfarben alle anderen Farben zugeordnet. Klar, wie soll man die Farben nun zurodnen? Ich habe mich nach ähnlichen, benachbarten Farben gerichtet und einem Beispielbild. Natürlich gibt es nun zich andere Möglichkeiten, Tonwerte und Farben den zwei Komplementärfarben zuzuordnen. Ich bin hier nach Wahrscheinlichkeit gegangen, und einem konkreten Beispiel - aber das wird nicht für ALLES passen. Es gilt also, wie bei allen LUTs: ausprobieren. Und: auch wenn es bei Intensitätsregler auf Anschlag mal nicht passt: manchmal ist ein sehr gering eingestellter Intensitätesregler die Magie!


    Daher braucht ein LUT Programm weitere sinnvolle Regler: um ein LUT auf das jeweilige Bild anzupassen, um es einzuarbeiten.


    In diesem Abschnitt könnt ihr die LUTs herunterladen - und das Bild unten ist das Originalbild, welches ich im zweiten Abschnitt durch alle LUTs schicke - jeweils 5 mit Goethe Farbkreis, und 5 mit RGB Farbkreis, den Intensitätsregler auf höchstem Anschlag. So arbeitet man in der Praxis nicht - aber ihr könnt hier schön ein praktisches Beispiel sehen: Goethe Harmonien versus RGB Farbharmonien.


    Ein Tip: mit der Farbbalance könnt ihr noch das Gleichgewicht zwischen den zwei Farben beeinflussen. In den Beispielen habe ich auch die Farbgewichtungen abgestimmt, sowie Kontraste, das ist immer wichtig.


    Im dritten Abschnitt bearbeite ich 5 Bilder mit den Goethe LUTs - im vierten Abschnitt 5 Bilder mit den RGB Farbharmonieen. Dabei sind die Bilder beliebig, ohne Rücksicht darauf, ob die LUTs zum Motiv passen. Hier habe ich dann intensiv die REGLER von LUT#1 bedient, um die LUTs einzuarbeiten.


    Hier der Link zu dern LUTs:

    projectsforum.de/neu/filebase/index.php?file/218/


    Unten das Originalbild für den nächsten Abschnitt.

    Emotional Projects dürfte sich beispielsweise auch gut dafür eignen, wenn man selber LUTs mit LUT #1 erstellen will, mit denen man gezielt bestimmte Stimmungen kreieren möchte. Zum Erstellen von LUTs könnten sich auch Referenzbilder eignen, die in den Einstellungen zu extrem geworden sind um selber gute Bilder zu sein. Durch die Feineinstellungen von LUT #1 kann man da einiges ausprobieren, experimentieren.


    Referenzbilder für LUTs aus anderen Projects Programmen, für selbst-kreierte LUTs zu erzeugen, ist bestümmt ein eigenes, spannendes Thema!


    grüssli merlYnn

    Vielen Dank, das ist ja sehr genau erklärt, allerdings muss man da auch sehr genau lesen :) . Und bei einigem lag ich ja schon etwas daneben, gut das mal aufgegriffen zu haben. Besonders diesen genauen Unterschied zwischen Feinheit und Qualität mal begriffen zu haben - und den Zusammenhang von Radius und Fein bis Grobstrukturen.


    Zu so einem Processor kann man ja nur beglückwünschen - sehe gerade, 2000 Euronen bei Amazon, da muss ich noch warten bis das mal VIEL billiger wird :) . Aber klar, gegen Arbeitszeit verechnet, also im professionellen Bereich, wird sich das schnell amortisieren! Da taucht vielleicht für Programmierer von Bildbearbeitungsprogrammen schon leise ein ganz neues Problem auf: Die Schere der PC Equipments zwischen Hobby und Profi Anwender wird vielleicht immer weiter auseinanderklaffen. Was hier unvernünftig wäre - eine 2000 Euro CPU - ist dort im Profi Bereich wieder vernünftig. Als man FRÜHER beim 500 Mhz Processor bei Aldi Schlange stand - und dann kam der 1Ghz Processor - also damals gab es diese Unterschiede so nicht!


    Einige kleine Fragen habe ich noch:


    1) Bei Sharpen 3 : Was bedeutet dort Radius 200 Prozent? Also: die Einstellung Infinity und Radius 100 Prozent müsste ja schon der gesamte Bildbereich sein. Geht da noch mehr?


    2) Zur Sicherheit nachgefragt: die Infinity Einstellung mit kleinem Radius ist dasselbe wie die Einstellung Ausgewogen mit größerem Radius?


    3) Die Ansicht der PSF Funktion, also die Ansicht der Unschärfeverteilung, machte die Richtung der Verwackelung einer Kamera sichtbar. Die Vorannahme, Prämisse, war hier, dass diese Unschärfeverteilung für jeden Pixel eines Sensors gleich ist, da alle Bildpunkte auf einem Sensor ja fest montiert sind. Also hat man hier mit einer einzigen, quasi ein-direktionalen Berechnung gearbeitet, indem man auf jedes Pixel die gleiche einmalig gemessene Unschärfeverteilung angewendet hat.


    Wenn jetzt eine Unschärfeverteilung für jedes Pixel einzeln errechnet wird - und man das als mulit-direktionale Schärfung bezeichnet - und das wirklich bessere Ergebnissse erziehlt, dann heißt das, das die ursprüngliche Prämisse falsch war, dass eine Unmschärfeverteilung für alle Pixel am Sensor gleich ist.


    Aber wie hat man sich das vorzustellen, dass es bei fest montierten Bildpunkten am Sensor überhaupt zu multi direktionalen Unschärfen kommen kann? Wie kann es da überhaupt zu unterschiedlichen Unschärfeverteilungen für einzelne Pixel kommen?


    Vorstellen könnte ich mir das eventuell am Beispiel eines Bildstabilisators - da gibt es welche mit drei Achsen, neuere haben 5 Achsen. Dass also Verwackelungen eigentlich an 5 Achsen entstehen, und je nachdem, wie man die Kamera beim Wackeln hält, läuft diese Verwackelungsachse ja auch nicht mal durch die Sensormitte. Naja, da wirds bestimmt wieder kompliziert :) Da braucht man immer mindestens ein gutes BIER, um das zu verstehen :)


    4) Wie wird es denn mit den alten und neuen Reglern in Sharpen 4 aussehen? Also: werden die alten Pro, Pro Plus und Infinity Einstellungen mit den neuen r=1 oder 3 oder 5 Buttons zusammen einstellbar sein - oder ist es ein Entweder - Oder?


    __________________________________________________________________________________________________________________________________


    Bei den gezeigten Demo Bildern hier sehe ich ein Problem: dass es fast alles Bilder sind, die man normalerweise wegschmeißen würde. Die Ergebnisse werden aber dann hier so beurteilt, als ob es gute Ausgangsbilder wären. Dazu habe ich folgendes gelernt:


    BILDBEARBEITUNG UND BILD-RESTAURIERUNG BZW BILD-REPARATUR SIND ZWEI VÖLLIG UNTERSCHIEDLICHE PAAR SCHUHE!


    Bildbearbeiter bearbeiten nur die besten Bilder, arbeiten mit bestem Ausgangsmaterial, und sortieren alles andere raus. Unter einem restauriertem oder repariertem Bild würden sie wahrscheinlich nur ungerne ihren Namen setzen wollen.


    Bildrestaurierer hingegen arbeiten mit schlechtem Ausgansmaterial an einer Verbesserung. Ihre Arbeit steht dabei immer im Verhältnis zu dem Ausgangsmaterial, und erreicht wohl niemals eine excellente Bildbearbeitung.


    Zu beachten finde ich also unbedingt, dass wir hier Sharpen 4 beim Restaurieren und Reparieren zusehen, nicht bei einer Bildbearbeitung. Zudem wird dabei zweitens ebenfalls deutlich, dass eine rein technische Demonstration keine bildbearbeitungs-handwerkliche Ausarbeitung ist.


    Am obigem Beispiel gezeigt: hier sehen wir eine beeindruckende Bildrestaurierung - aber eben keine Bildbearbeitung. Das heißt konkret: dem Ausgangsmaterial fehlen zum Beispiel viel mehr Details als einem richtig fotografiertem Bild. Das hat KONSEQUENZEN beim schärfen. Dreht man einfach nur die Schärferegler hoch, will das Auge bei zunehmender Schärfe auch mehr Details sehen - oder es wird Comic Style. Schärfe ich zuviel von den Grob Strukturen (hohe Radiuseinstellung) bei hoher Stärke, werden Bildteile vermatschen, was dann mehr ein expressionistisches Kunstwerk ist - wenn man nicht darauf eingeht, was man da vor sich hat..


    Bildrestaurierung ist dabei immer eine ENTSCHEIDUNG, wieviel ARBEITSZEIT ich da reinstecken will.


    Für eine One button Bearbeitung sind für mich oben die Ergebnisse bei r=3 und eventuell r=5 beeindruckend.


    Drehe ich die Schärferberechnung höher, muss ich bedenken: bei zu hoher Kontrast-steigerung verliere ich irgendwann wieder die Details. Bei r=10 oder 20 gewinnt der dunkle Vordergrund, obwohl er schon zusätzlicher Micro-Details brauchen könnte, der Hintergrund wird künstlerisch zu quietschig, grell und unnatürlich. Das heißt jetzt nicht, dass Sharpen 4 das nicht kann, aber hier muss ich mehr ZEIT in wohlgemerkt eine Restaurierung oder Reparatur investieren, mich mit dem Bild tiefer beschäftigen. Zum Beispiel Lichter schützen ausprobieren - im Zeichenmodus die Schärfe bei weiteren Entfernungen im Bild etwas zurücknehmen, den Radiusregler zurücknehmen bis das Auto wieder natürlich aussieht usw usw. Vielleicht versuchen, irgendwo einen Fokus zu setzen oder eine Schärfeebene. Dann muss ich virtuelle Details hinzufügen und und und ....


    Bei BILDRESTAURIERUNG ODER REPARATUR ist dann auch irgendwann Schluss, nämlich mit der Frage: Wieviel Zeit verdient dieses Bild eigentlich. Hier gewinnt die neue Methode von Sharpen 4, dass man in kurzer Zeit relativ gute Ergebnisse erzielen kann. Opa wird jetzt nicht mehr sagen: na, das hast du aber total verwackelt. - Man wird aber niemals die Ergebnisse einer professionellen Bildbearbeitung mit gutem Ausgangsmaterial erzielen bei DIESEM Ausgangsmaterial - das sollte doch klar sein.


    Also: für BILDRESTAURIERUNG finde ich die Ergebnisse, im Verhältnis zum Zeitaufwand, beeindruckend. Natürlich wäre da mit größerem Zeitaufwand und gezielter Überlegung noch einiges MEHR DRIN mit Sharpen Pro.


    Für die BILDBEARBEITUNG hätten wir ein Ausgangsmaterial mit richtig gesetztem Fokus, der die Bildaussage und Blickführung unterstützt. Und: hier gibt es auch schon im Ausgangsmaterial viel mehr Details. Hier kann ich mir sehr gut vorstellen, dass man mit dem neuen Verfahren besser zurechtkommt, durch eine natürlichere Verteilung der Grob- bis Microstrukturen. Besonders bei Portraits kann ich mir da eine Verbesserung vorstellen. Auch bei Stimmungs-Bildern, weil die Bildstimmung durch das Schärfen um einiges weniger verändert wird, als vorher. Diese VERSCHIEDENEN Einsatzbereiche zu zeigen, mit ihren unterschiedlichen Anforderungen, wird dann wohl die Aufgabe des Einfürungsseminars sein, glaube ich mal. :) An den gezeigten Demos hier finde ich wichtig, dass es schnelle technische Demos an Extrembeistpielen sind, die eigentlich und uneigentlich in die Kategorie Bild-Reparatur fallen, aber keinesfalls eine ausgefeilte Bildbearbeitung zeigen..


    grüssli merlYnn

    Die Rede ist hier neuerdings von einem mulit-direktionalem Schärfeverfahren, welches mit Sharpen 4 kommen soll. Weiß jemand, was das ist? Glaube, nicht.


    Aber vielleicht ist es ja schon "vorher" nicht alles um das Schärfen ganz so eindeutig vorstellbar, und wie man sich das konkret und plastisch vorzustellen hat.


    Daher ist das zu dem Zeitpunkt vielleicht mal eine gute Gelegenheit, ganz von vorne anzufangen, um dann mit einem guten Basiswissen auf ein neues Schärfeverfahren zuzugehen. Ich schreibe daher mal, wie ich mir das so beim Schärfen vorstelle - und das muss jetzt nicht alles richtig sein. Dann wirds nämlich Zeit, das zu korrigieren.


    ALSO: Schärfung ist eine Illusion von mehr Bildschärfe, die man dadurch erreicht, dass man bei den KANTEN der Oblekte im Bild den KONTRAST erhöht. Also die dunklere Seite der Kante dunkler macht - die hellere Seite der Kante heller macht.


    Die STÄRKE in Photoshop - bei Sharpen Projects heißt dieser Regler "Korrektur" - bestimmt die Stärke des Kontrastes an den Kanten. Übertreibt man das mit der Stärke, wird eine Seite der Kante sehr hell, und es entsteht eine helle AURA um die geschärften Ojekte. Das sollte man vermeiden - und auch das Programm Sharpen Pro selbst hat ja Maßnahmen und Algorithmen, um Auras zu vermeiden. Das ist nämlich ein so ein Punkt, an dem Schärfeprogramme in Tests beurteilt werden - ob da beim Schärfen diese sogenannten Schärfeauras entstehen.


    Der zweite Parameter, oder Regler, heißt Radius. Dieser bestimmt, wie "dick" die geschärften Kanten sind. Wieviele Pixel der Bereich der Kontrastanhebung umfaßt. Wenige Pixel machen sehr dünne, feine Schärfestrukturen - viele Pixel machen fettere, gröbere Schärfestrukturen.


    Der drittte Regler heißt üblicherweise Threshhold - ich glaube, das dürfte bei Sharpen Pro der Regler "Feinheit" sein. Der bestimmt, ab welcher Kantenfeinheit, ab welcher Feinheit der Strukturen Kanten geschärft werden sollen. Soll der Kontrast nur bei gröbsten Kanten im Bild angehoben werden - oder auch schon bei den Mikrostrukturen? Der Begriff "Threshhold" meint einen Schwellenwert in der Feinheit der Strukturen, ab dem Kanten geschärft werden.


    OK - allerdings bleibt dann noch die Frage übrig, in welchem Verhältnis grobe und feine Strukturen geschärft werden. Würde man feine Strukturen zu stark schärfen, wäre das eine Anhebung der Mikrodetails, was unnatürlich aussieht. Das läßt vermuten, dass hinter dem Regler "Feinheit" in Sharpen Pro etwas mehr steckt, als nur ein einfacher Threshhold Regler.


    Aber damit kann man sich ja schon plastisch vorstellen, was man bei normaler Schärfung tut, wenn man diese Regler bedient: Stärke des Kantenkontrastes - Dicke des Kantenkontrastes - und ab welcher Kantendicke im vorhandenen Bild wird eine Kante geschärft. Ganz plastisch also. Und abstimmen sollte man diese Regler so, dass das Bild möglichst natürlich aussieht.


    Dann gibt es noch die Verwackelungsunschärfe, die anders funktioniert, als einfache Kantenschärfung. Das stelle ich mir so vor, ohne aber dabei sehr sicher zu sein:


    Hier werden keine Kanten geschärft, sondern Verwackelungsdunst aus der Umgebung wieder in ein Pixel hineingerechnet.


    "Korrektur" heißt, wie stark werden verwaschene Bildstellen Kontrastiert, geschärft, oder "zurückgerechnet".


    Radius heißt, wie groß ist der Umfang einer Berechnung. Hier sollte man sich an der Anzeige der Unschärfeverteilung orientieren.


    Feinheit, denke ich mir, heißt, ab welcher Unschärfeverteilung wird gerechnet, ab weiveil Unschärfedunst. (da bin ich mir aber nicht so sicher)


    Stimmt das überhaupt so? - Wenn wir diese Grundlagen "drin" haben, dass wir bei jedem Regler uns ganz plastisch vorstellen können, was da geschieht - können wir ja mal schauen, was ein multi-direktionales Schärfeverfahren ist :)


    grüssli merlYnn

    Sharpen Pro 3 scheint in den Beispielen mehr Microkontraste herauszuarbeiten, Sharpen Pro 4 arbeitet natürlicher, gleichmäßiger, mehr an der Originalbildstimmung.


    Jetzt ist das aber echt so ne Sache.


    Aus einem großem Abstand betrachtet, "scheint" uns Sharpen Pro 3 ein detailreicheres Bild zu bieten, was uns spontan besser gefällt. Wir mögen es, Details zu erkennen, was auch ein Maßstab für die WERTIGKEIT eines Bildes für uns ist.


    Geht man aber näher heran - und der normale Abstand zu Bildschirm ist kein so großér Abstand - dann fällt die Täuschung auf! Matsch im Original, geschärft, ergibt keine gute und brauchbare Details. Sprich, in MiPis Beispielbildern erhält man mit Sharpen Pro 3 keine Tannennadeln - sondern Microstrukturen, die aus weiter Entfernung zwar Tannennadeln suggerieren - aber je näher man kommt, desto mehr wird das zu einem Mißverhältnis aus geschärftem Irgendwas und fehlenden wirklichen Details.


    Richtig ist, dass bei Schärfung auch der Betrachtungsabstand eine wichtige Rolle spielt - das ist hier also nicht nur einfach Geschmacksache. Wer professionell druckt: da gibt es für die Schärfeparameter eine FORMEL, wo der Betrachtungsabstand die wesentliche Variable ist. Man schärft also auch, und besonders, in Hinblick auf den Betrachtungsabstand, und im Druck schärft man sogar explizit in Hinblick auf den Betrachtungsabstand und berechnet die Schärfung danach.


    Gut wäre natürlich, wenn man so schärfen könnte, dass es bei allen Betrachtungsabständen optimal aussieht. Das ist in absoluter Form unrealistisch - aber man kann das ja immer weiter verbessern, optimieren, annähern, dass der optimale BEREICH immer größer wird, und ich meine, das tut Scharpen Pro 4 durchaus. Das Bild ist zunächst sehr natürlich geschärft. Dann erhält Sharpen Pro 4 ja die virtuellen Microdetails. Diese ergeben mit der natürlicheren Schäfung gewiss eine Erweiterung des optimalen Betrachtungsabstandes - anders als noch das Ergebnis aus Sharpen Pro 3. Das braucht einen "gebührenderen" Abstand.


    Für mich ist da durchaus wieder eine Bereicherung geschafft worden.


    Dann noch ein zweiter Punkt, neben dem Betrachtungsabstand: DIE BILDSTIMMUNG.


    Vergleicht man die Ergebnisse von Sharpen Pro 3 mit Scharpen Pro 4 - dann hat die Schärfung bei Sharpen Pro 3 das Bild stark verändert, durch Kontrastanhebung. Die Schärfung von Sharpen Pro 4 ist dem Original ähnlicher - wobei man bestimmt mehr Gas geben könnte, wenn man wollte. Aber stellt euch ein weiches romantisches Originalbild vor - durch so eine Schärfung würde die ursprüngliche Stimmung zerstört werden - das hatte ich schon oft. Und mich dann gefragt, ob es überhaupt gut war, das Schärfeprogramm genutzt zu haben. Es macht den Eindruck, dass das ich softe, sensible Bildstimmungen mit Scharpen Pro 4 und den virtuellen Microdetails nun endlich besser ausarbeiten kann.


    Bei allem muss man immer wieder bedenken: Schärfung ist immer eine Illusion von mehr Details und Schärfe, und diese Illusion funktioniert in Bezug auf einen Bereich von einem Betrachtungsabstand am Besten, bei anderen Betrachtungsabständen weniger gut.


    Was uns am Schärfen fasziniert, ist die PRÄSENZ, die unser Bild plötzlich bekommt - dieser Eindruck von mehr Realität. Oft muss ich mich aber entscheiden: mehr Präsenz, und sensible Bildstimmung weg, oder mehr Bildstimmung ,und weniger Präsenz und Schärfung. Bei Sharpen Pro 4 sieht es schon so aus, an den gezeigten Beispielen, dass man jetzt mehr originale Bildstimmung mit mehr Präsenz herausarbeiten kann - insbesondere mit den zusätzlichen virtuellen Microdetails.


    Die "Frequenzen" - also grobe Strukturen (niederige Frequenzen) und Microstrukturen (hohe Frequenzen) finde ich in Scharpen Pro 4 viel besser aufeinander abgestimmt als in Sharpen Pro 3. Daran würde ich die neue Qualität messen - nicht nur an einem spontanen Eindruck aus größerer Entfernung. Also: der natürliche Eindruck bei Sharpen Pro 4 entsteht dadurch, dass grobe und feine Strukturen stimmiger aufeinander abgestimmt sind, in einem stimmigeren VERHÄLTNIS zueinander stehen als es bei Sharpen Pro 3 noch der Fall ist, wenn man sich die Bäume oder Masten mal aus näherrer Entfernung anschaut.


    Allgemein kann man vielleicht sagen: die Qualität von Schärfung bestimmt lediglich, wie gut die Illusion funktioniert.Die Illusion funktioniert für uns immer auf einen bstimmten Betrachtungsabstand am Besten. Wenn aus dem Betrachtungsabstand ein größerer Betrachtungsbereich entsteht, hat man etwas verbessert. Aber auch: wie natürlich die Frequenzen der Strukturen aufeinander abgestimmt sind. Mit der neuen Schärfungsmethode und den Körnungs- Microdetailengines scheint mir das der Fall zu sein.


    grüssli merlYnn

    Ich habe hier mit einem Spezialprogramm ein LUT erstellt, 04.zip im Anhang, welches das gesamte Bild in den Komplementärfarben Rot und Grün wiedergibt, mit einer gewissen Farbtoleranz bei Rot bei und bei Grün. Da wollte ich noch viele LUTs erstellen, nach Farbpaletten und nach den Farbharmonien nach Goethe - Itten. Das ist das erste Testergebnis.


    Natürlich kann man in den meisten Fällen nicht einfach das LUT anwenden - man muss da ziemlich die Regler bedienen. Color Grading mit Farbpaletten funktioniert nicht so einfach auf Knopfdruck mit einem Farbpaletten LUT. Und nach der Bearbeitung mit LUT #1 stelle ich auch in Color Projects noch die Farbgewichtungen ein, weiche Kontreaste für Blickführung - meist noch dezent eine Fotoemulation. Color Projects ist daher mein Standard Exportprogramm für LUT #1.


    Hier mal ein absolut fertiges Beispielbild, dezent verarbeitet - aber man erkennt doch wohl sehr gut den speziellen Rot-Grün Look.


    Klar - es gibt dann bestümmt auch später noch von mir passendere Farbharmonien als Rot-Grün :D


    Dann kann man auch nicht einfach eine Farbpalette in LUT #1 einladen und kriegt dann schon das entsprechende LUT. Beim Reduzieren aller Farben auf eine Farbharmonie, das macht Color Grading, muss ich nämlich FARBEN zuweisen, kein Histogram. Und bei den Farben muss ich mich zusätzlich noch entscheiden, welche Farben ich wohin tue, dafür gibt es keine Automatik. Ich habe hier ein Landschaftsbild genommen, und geschaut, dass Rot in den Himmel kommt, kennen wir vom Sonnenuntergang, und Grün auf den Boden - und nicht umgekehrt :) . Hier, bei dunklerem Himmel, bekommt dieser einen Grünton. Also möglichst sinnvolle Entscheidungen für mein Farbpaletten-LUT - welches dann später noch konkret und sinnvoll auf ein Bild ausgearbeitet werden muss mit dem LUT #1 Programm.


    Natürlich kann man aber auch ein fertiges ausgetüfteltes Bild, wie dieses hier unten, einfach kopieren und in LUT #1 einladen :) Farbharmonien, die auf den ersten Blick nicht so passen, sind oft sehr interessant, wenn man das LUT mit geringer Intensität anwendet, da muss man aber einiges gut abstimmen.


    Beim zweiten Bild habe ich einfach das erste Bild als LUT Stil verwendet, dann mit LUT#1 und Color Projects weitergearbeitet. Ich finde, arbeitet man zuerst mit LUTs, dann mit Color Projects weiter, eventuell dort noch dezent mit einem Fotostil - ergibt das Farbstimmungen, zu denen man normalerweise nicht so ohne weiteres sonst kommt.


    Dann wollte ich später mal, im nächsten Schritt, auch LUTs für Farbharmonien im RGB Farbkreis erstellen. Hier könnte man dann schauen, was es mit dem uralten Streit seit Goethe und Newton auf sich hat: soll ein Künstler den Goethe oder den RGB Farbkreis benutzen. Da sind sich nicht alle Fotografen einig - einige bevorzugen trotzdem den RGB Farbkreis. Naja, mal gespannt. Bei Farbharmonien geht es im Farbkreis immer um gleiche Winkel. Also: 180 Grad sind zwei Komplementärfarben, Analoge Farben sind zwei Farben im gleichen Winkel rechts und links einer Farbe, Split Komplementär sind eine Farbe und zwei Farben im gleichen Winkel von der Komplementärfarbe usw. Klar, ein unterschiedlicher Farbkreis führt da zu unterschiedlichen Ergebnissen.


    Beim Color Grading sollte man sich hier dran orientieren: https://colorschemedesigner.com/csd-3.5/ Tja, wäre schön, wenn man da einfach eine Farbpalette kopieren als Beispielbild einladen könnte - das funktioniert leider aus genannten Gründen nicht. Aber wie gesagt: mit LUT#1 kann man auch die fertigen Bilder einer Farbpaletten Ausarbeitung einladen, das gibt dann schnellere Ergebnisse als ein reines Farbpaletten LUT, welches wohl immer noch abgestimmt werden muss.


    Jedenfalls hat ein Rot-Grün LUT schonmal prinzipiell gefunzt, da sollte der Rest dann auch relativ flott gehen..


    grüssli merlYnn

    Hallo Michael, vielen Dank, das sind ja schon sinnvolle Anregungen.


    Auch so eine Unterschbeidung in Lut in hell - dunkel - intensiv.


    Beim Erstellen kleinerer Ordner müsste man ja auch berücksichtigen, dass LUT diese tolle Funktion zum Durchzappen eines Ordners hat, und das sollte ja auch sinnvoll genutzt werden können. Eine Möglichkeit wäre, Ordner fürs Gobe zu nehmen, und dann immer feiner zu unterscheiden, sich heranzutasten.


    Ich werde demnächst mal sinnvolle LUTs für Farbharmonien hier reinstellen (Color-Grading Farbpaletten, Itten-Goethe Farbkreis-Harmonien). Hier werden alle Farben im Bild auf bestimmte Farbakkorde reduziert. Mal schauen, wie das funktionieret, und ob man da schon "organisieren" muss. Das Erstellen an einem Beispiel, zwei Farben, Rot-Grün Komplementär, habe ich schon hingekriegt, mal gucken, wieviel man mit solchen Farbpaletten dann in der Praxis anfangen kann.


    grüssli merlYnn