Begriffe rund um Schärfung PLASTISCH verstehen

Im Rahmen der neuen Europäischen Datenschutzbestimmungen, haben auch wir unsere Datenschutzrichtlinie mit Wirkung zum 25. Mai 2018 für alle Besucher, Nutzer unserer Website aktualisiert. http://projectsforum.de/neu/index.php?datenschutzerklaerung/ Die Änderungen umfassen eine genauere Aufklärung darüber, wie wir deine Daten verwenden, einschließlich deiner Auswahl- und Kontrollmöglichkeiten und deiner Rechte. Ab dem Stichtag unterliegt deine weitere Nutzung unseres Forums der neuen Datenschutzrichtlinie. Hast du Fragen dazu? Rufe uns einfach an unter 06461/989877, oder schreibe uns eine Nachricht an stefan@stefan-runkel-online.de Herzliche Grüße! Dein Projectsforum-Team
  • Die Rede ist hier neuerdings von einem mulit-direktionalem Schärfeverfahren, welches mit Sharpen 4 kommen soll. Weiß jemand, was das ist? Glaube, nicht.


    Aber vielleicht ist es ja schon "vorher" nicht alles um das Schärfen ganz so eindeutig vorstellbar, und wie man sich das konkret und plastisch vorzustellen hat.


    Daher ist das zu dem Zeitpunkt vielleicht mal eine gute Gelegenheit, ganz von vorne anzufangen, um dann mit einem guten Basiswissen auf ein neues Schärfeverfahren zuzugehen. Ich schreibe daher mal, wie ich mir das so beim Schärfen vorstelle - und das muss jetzt nicht alles richtig sein. Dann wirds nämlich Zeit, das zu korrigieren.


    ALSO: Schärfung ist eine Illusion von mehr Bildschärfe, die man dadurch erreicht, dass man bei den KANTEN der Oblekte im Bild den KONTRAST erhöht. Also die dunklere Seite der Kante dunkler macht - die hellere Seite der Kante heller macht.


    Die STÄRKE in Photoshop - bei Sharpen Projects heißt dieser Regler "Korrektur" - bestimmt die Stärke des Kontrastes an den Kanten. Übertreibt man das mit der Stärke, wird eine Seite der Kante sehr hell, und es entsteht eine helle AURA um die geschärften Ojekte. Das sollte man vermeiden - und auch das Programm Sharpen Pro selbst hat ja Maßnahmen und Algorithmen, um Auras zu vermeiden. Das ist nämlich ein so ein Punkt, an dem Schärfeprogramme in Tests beurteilt werden - ob da beim Schärfen diese sogenannten Schärfeauras entstehen.


    Der zweite Parameter, oder Regler, heißt Radius. Dieser bestimmt, wie "dick" die geschärften Kanten sind. Wieviele Pixel der Bereich der Kontrastanhebung umfaßt. Wenige Pixel machen sehr dünne, feine Schärfestrukturen - viele Pixel machen fettere, gröbere Schärfestrukturen.


    Der drittte Regler heißt üblicherweise Threshhold - ich glaube, das dürfte bei Sharpen Pro der Regler "Feinheit" sein. Der bestimmt, ab welcher Kantenfeinheit, ab welcher Feinheit der Strukturen Kanten geschärft werden sollen. Soll der Kontrast nur bei gröbsten Kanten im Bild angehoben werden - oder auch schon bei den Mikrostrukturen? Der Begriff "Threshhold" meint einen Schwellenwert in der Feinheit der Strukturen, ab dem Kanten geschärft werden.


    OK - allerdings bleibt dann noch die Frage übrig, in welchem Verhältnis grobe und feine Strukturen geschärft werden. Würde man feine Strukturen zu stark schärfen, wäre das eine Anhebung der Mikrodetails, was unnatürlich aussieht. Das läßt vermuten, dass hinter dem Regler "Feinheit" in Sharpen Pro etwas mehr steckt, als nur ein einfacher Threshhold Regler.


    Aber damit kann man sich ja schon plastisch vorstellen, was man bei normaler Schärfung tut, wenn man diese Regler bedient: Stärke des Kantenkontrastes - Dicke des Kantenkontrastes - und ab welcher Kantendicke im vorhandenen Bild wird eine Kante geschärft. Ganz plastisch also. Und abstimmen sollte man diese Regler so, dass das Bild möglichst natürlich aussieht.


    Dann gibt es noch die Verwackelungsunschärfe, die anders funktioniert, als einfache Kantenschärfung. Das stelle ich mir so vor, ohne aber dabei sehr sicher zu sein:


    Hier werden keine Kanten geschärft, sondern Verwackelungsdunst aus der Umgebung wieder in ein Pixel hineingerechnet.


    "Korrektur" heißt, wie stark werden verwaschene Bildstellen Kontrastiert, geschärft, oder "zurückgerechnet".


    Radius heißt, wie groß ist der Umfang einer Berechnung. Hier sollte man sich an der Anzeige der Unschärfeverteilung orientieren.


    Feinheit, denke ich mir, heißt, ab welcher Unschärfeverteilung wird gerechnet, ab weiveil Unschärfedunst. (da bin ich mir aber nicht so sicher)


    Stimmt das überhaupt so? - Wenn wir diese Grundlagen "drin" haben, dass wir bei jedem Regler uns ganz plastisch vorstellen können, was da geschieht - können wir ja mal schauen, was ein multi-direktionales Schärfeverfahren ist :)


    grüssli merlYnn

  • Hallo merlYnn,


    ich versuche mal die Regler mit einer möglichst einfachen und sinnvollen Umschreibung darzustellen und mache das am Beispiel der komplexesten Form der Schärfe in SHARPEN #3/#4 - der Unschärfe-Reduzierung.


    Regler "Korrektur:

    Das ist im Prinzip die Deckkraft - eine geringe Korrektur rechnet die PSF-Funktion (Unschärfeverteilung) nur in geringem Maß auf jeden Pixel


    Regler "Radius":

    Bildet die Größe des Umkreises, in dem um jeden Pixel herum nach Unschärfen gesucht wird. Die PSF-Funktion (Unschärfeverteilung) bildet dabei den maximalen Radius bei der aktuell eingestellten Qualität (Pro, Pro+, etc.)

    Der größer der Radius ist, desto gröbere Details (Details mit größerer Ausdehnung) können dabei Unschärfe-reduziert werden


    Regler "Qualität":

    Gibt an mit welcher Genauigkeit die PSF-Funktion interpretiert wird. Ein hoher Wert nimmt dabei auch noch sehr schwache Werte in der PSF-Funktion in die Berechnung hinein, rechnet also genauer und damit länger.


    Regler "Feinheit:

    Die Feinheit bestimmt, in wie vielen aufeinanderfolgenden Schritten die Unschärfe mit dem eingestellten Radius berechnet wird.


    Ein Beispiel -> Nehmen wir einmal an unser Radius wäre auf 20 Pixel eingestellt für die PSF Funktion

    - bei geringer Feinheit hätten wir dann 3 Durchläufe für die Unschärfe-Korrektur mit "20p, 8p, 2p" Radius

    - bei hoher Feinheit werden dann bis zu Radius / 2 aufeinanderfolgende Durchläufe berechnet, also zum Beispiel "20p, 17p, 15p, ..., 3p, 2p, 1p" Radius


    HD_Farbschutz:

    Ist der HD Farbschutz aktiviert, wird diese Berechnung für alle Kanäle einzeln durchgeführt (r,g,b) - ist der HD Farbschutz deaktiviert wird die Berechnung auf dem Luminanzkanal gemacht.


    Stimmt das überhaupt so? - Wenn wir diese Grundlagen "drin" haben, dass wir bei jedem Regler uns ganz plastisch vorstellen können, was da geschieht - können wir ja mal schauen, was ein multi-direktionales Schärfeverfahren ist :)

    Das Multi-direktionale Schärfungsverfahren greift die PSF-Funktion wieder auf, erstellt diese aber nicht für das gesamte Bild ein Mal, sondern eine individuelle PSF-Funktion für jeden Pixel im Bild.


    Nehmen wir mal einen Radius von r=3 Pixeln für die Multi-direktionale Schärfe:

    Um eine solche "pro Pixel PSF-Funktion" zu berechnen, muss man für jeden Bildpunkt im Radius von (2*r+1) * (2*r+1) die Bildflächen der Größe (2*r+1) * (2*r+1) vergleichen und dann die resultierende Pixel PSF-Funktion mit dem aktuellen Bildpunkt verrechnen.

    Dabei wird bei einem Radius von r=3 nacheinander jede Stufe r=3, r=2, r=1 berechnet und zusammengefügt.


    In der Mathematik ergibt sich hier eine sogenannte Mächtigkeit von Z(r) = r * (2*r+1) * (2*r+1) * (2*r+1) * (2*r+1) entspricht (r hoch 5, weil 5x r vorkommt) - das bedeutet -> Erhöhen wir den Radius um 1 Pixel in der Multi-direktionalen Schärfe, steigt der Berechnungsaufwand "in 5-ter Ordnung".


    Dauert beispielsweise eine Berechnung der Multi-direktionalen Schärfe auf einem 12 Megapixel Bild:

    -> mit r=1 Pixel 2 Sekunden

    -> erhöht sich diese Zeit mit r=2 um Faktor 15.43 -> Z(2) / Z(1) -> also auf ca. 30 Sekunden

    -> erhöht sich diese Zeit mit r=3 um Faktor 207.49 -> Z(3) / Z(1) -> also auf ca. 414 Sekunden


    Man merkt, dass diese Methode extrem rechenaufwendig ist - Sharpen #4 wird 3 Stufen anbieten: r=1 Pixel, r=3 Pixel, r=5 Pixel



    Und jetzt ein paar Bilder und gemessene Zeiten dazu aus der Sharpen #4 Prototyp Version:


    Originalbild (1/2 Megapixel)


    Verwacklung "Intensive Korrektur" Preset - Modus "Ausgewogen"


    Zusätzlich aktiviert: Muti-direktionale Schärfe mit r=1 Pixel - Zeit 0.05 Sekunden


    Zusätzlich aktiviert: Muti-direktionale Schärfe mit r=3 Pixel - Zeit 0.11 Sekunden


    Zusätzlich aktiviert: Muti-direktionale Schärfe mit r=5 Pixel - Zeit 0.24 Sekunden


    Zusätzlich aktiviert: Muti-direktionale Schärfe mit r=10 Pixel - Zeit 2.95 Sekunden


    Zusätzlich aktiviert: Muti-direktionale Schärfe mit r=20 Pixel - Zeit 75.1 Sekunden


    Die Zeiten wurden auf meinem 32-Kern AMD-TR-3970x System gemessen.


    Bei einem Radius von r=20 Pixeln würde diese Methode auf aktuellen Rechnern für ein normales 24 Megapixel Bild bereits im Bereich von "Stunden" liegen, weshalb ich erst einmal nur r=1, r=3 und r=5 Pixel anbiete.



    Falls ich ein wenig zu sehr in die Mathematik abgedriftet bin - Sorry ;-)


    VG Michael

  • Vielen Dank, das ist ja sehr genau erklärt, allerdings muss man da auch sehr genau lesen :) . Und bei einigem lag ich ja schon etwas daneben, gut das mal aufgegriffen zu haben. Besonders diesen genauen Unterschied zwischen Feinheit und Qualität mal begriffen zu haben - und den Zusammenhang von Radius und Fein bis Grobstrukturen.


    Zu so einem Processor kann man ja nur beglückwünschen - sehe gerade, 2000 Euronen bei Amazon, da muss ich noch warten bis das mal VIEL billiger wird :) . Aber klar, gegen Arbeitszeit verechnet, also im professionellen Bereich, wird sich das schnell amortisieren! Da taucht vielleicht für Programmierer von Bildbearbeitungsprogrammen schon leise ein ganz neues Problem auf: Die Schere der PC Equipments zwischen Hobby und Profi Anwender wird vielleicht immer weiter auseinanderklaffen. Was hier unvernünftig wäre - eine 2000 Euro CPU - ist dort im Profi Bereich wieder vernünftig. Als man FRÜHER beim 500 Mhz Processor bei Aldi Schlange stand - und dann kam der 1Ghz Processor - also damals gab es diese Unterschiede so nicht!


    Einige kleine Fragen habe ich noch:


    1) Bei Sharpen 3 : Was bedeutet dort Radius 200 Prozent? Also: die Einstellung Infinity und Radius 100 Prozent müsste ja schon der gesamte Bildbereich sein. Geht da noch mehr?


    2) Zur Sicherheit nachgefragt: die Infinity Einstellung mit kleinem Radius ist dasselbe wie die Einstellung Ausgewogen mit größerem Radius?


    3) Die Ansicht der PSF Funktion, also die Ansicht der Unschärfeverteilung, machte die Richtung der Verwackelung einer Kamera sichtbar. Die Vorannahme, Prämisse, war hier, dass diese Unschärfeverteilung für jeden Pixel eines Sensors gleich ist, da alle Bildpunkte auf einem Sensor ja fest montiert sind. Also hat man hier mit einer einzigen, quasi ein-direktionalen Berechnung gearbeitet, indem man auf jedes Pixel die gleiche einmalig gemessene Unschärfeverteilung angewendet hat.


    Wenn jetzt eine Unschärfeverteilung für jedes Pixel einzeln errechnet wird - und man das als mulit-direktionale Schärfung bezeichnet - und das wirklich bessere Ergebnissse erziehlt, dann heißt das, das die ursprüngliche Prämisse falsch war, dass eine Unmschärfeverteilung für alle Pixel am Sensor gleich ist.


    Aber wie hat man sich das vorzustellen, dass es bei fest montierten Bildpunkten am Sensor überhaupt zu multi direktionalen Unschärfen kommen kann? Wie kann es da überhaupt zu unterschiedlichen Unschärfeverteilungen für einzelne Pixel kommen?


    Vorstellen könnte ich mir das eventuell am Beispiel eines Bildstabilisators - da gibt es welche mit drei Achsen, neuere haben 5 Achsen. Dass also Verwackelungen eigentlich an 5 Achsen entstehen, und je nachdem, wie man die Kamera beim Wackeln hält, läuft diese Verwackelungsachse ja auch nicht mal durch die Sensormitte. Naja, da wirds bestimmt wieder kompliziert :) Da braucht man immer mindestens ein gutes BIER, um das zu verstehen :)


    4) Wie wird es denn mit den alten und neuen Reglern in Sharpen 4 aussehen? Also: werden die alten Pro, Pro Plus und Infinity Einstellungen mit den neuen r=1 oder 3 oder 5 Buttons zusammen einstellbar sein - oder ist es ein Entweder - Oder?


    __________________________________________________________________________________________________________________________________


    Bei den gezeigten Demo Bildern hier sehe ich ein Problem: dass es fast alles Bilder sind, die man normalerweise wegschmeißen würde. Die Ergebnisse werden aber dann hier so beurteilt, als ob es gute Ausgangsbilder wären. Dazu habe ich folgendes gelernt:


    BILDBEARBEITUNG UND BILD-RESTAURIERUNG BZW BILD-REPARATUR SIND ZWEI VÖLLIG UNTERSCHIEDLICHE PAAR SCHUHE!


    Bildbearbeiter bearbeiten nur die besten Bilder, arbeiten mit bestem Ausgangsmaterial, und sortieren alles andere raus. Unter einem restauriertem oder repariertem Bild würden sie wahrscheinlich nur ungerne ihren Namen setzen wollen.


    Bildrestaurierer hingegen arbeiten mit schlechtem Ausgansmaterial an einer Verbesserung. Ihre Arbeit steht dabei immer im Verhältnis zu dem Ausgangsmaterial, und erreicht wohl niemals eine excellente Bildbearbeitung.


    Zu beachten finde ich also unbedingt, dass wir hier Sharpen 4 beim Restaurieren und Reparieren zusehen, nicht bei einer Bildbearbeitung. Zudem wird dabei zweitens ebenfalls deutlich, dass eine rein technische Demonstration keine bildbearbeitungs-handwerkliche Ausarbeitung ist.


    Am obigem Beispiel gezeigt: hier sehen wir eine beeindruckende Bildrestaurierung - aber eben keine Bildbearbeitung. Das heißt konkret: dem Ausgangsmaterial fehlen zum Beispiel viel mehr Details als einem richtig fotografiertem Bild. Das hat KONSEQUENZEN beim schärfen. Dreht man einfach nur die Schärferegler hoch, will das Auge bei zunehmender Schärfe auch mehr Details sehen - oder es wird Comic Style. Schärfe ich zuviel von den Grob Strukturen (hohe Radiuseinstellung) bei hoher Stärke, werden Bildteile vermatschen, was dann mehr ein expressionistisches Kunstwerk ist - wenn man nicht darauf eingeht, was man da vor sich hat..


    Bildrestaurierung ist dabei immer eine ENTSCHEIDUNG, wieviel ARBEITSZEIT ich da reinstecken will.


    Für eine One button Bearbeitung sind für mich oben die Ergebnisse bei r=3 und eventuell r=5 beeindruckend.


    Drehe ich die Schärferberechnung höher, muss ich bedenken: bei zu hoher Kontrast-steigerung verliere ich irgendwann wieder die Details. Bei r=10 oder 20 gewinnt der dunkle Vordergrund, obwohl er schon zusätzlicher Micro-Details brauchen könnte, der Hintergrund wird künstlerisch zu quietschig, grell und unnatürlich. Das heißt jetzt nicht, dass Sharpen 4 das nicht kann, aber hier muss ich mehr ZEIT in wohlgemerkt eine Restaurierung oder Reparatur investieren, mich mit dem Bild tiefer beschäftigen. Zum Beispiel Lichter schützen ausprobieren - im Zeichenmodus die Schärfe bei weiteren Entfernungen im Bild etwas zurücknehmen, den Radiusregler zurücknehmen bis das Auto wieder natürlich aussieht usw usw. Vielleicht versuchen, irgendwo einen Fokus zu setzen oder eine Schärfeebene. Dann muss ich virtuelle Details hinzufügen und und und ....


    Bei BILDRESTAURIERUNG ODER REPARATUR ist dann auch irgendwann Schluss, nämlich mit der Frage: Wieviel Zeit verdient dieses Bild eigentlich. Hier gewinnt die neue Methode von Sharpen 4, dass man in kurzer Zeit relativ gute Ergebnisse erzielen kann. Opa wird jetzt nicht mehr sagen: na, das hast du aber total verwackelt. - Man wird aber niemals die Ergebnisse einer professionellen Bildbearbeitung mit gutem Ausgangsmaterial erzielen bei DIESEM Ausgangsmaterial - das sollte doch klar sein.


    Also: für BILDRESTAURIERUNG finde ich die Ergebnisse, im Verhältnis zum Zeitaufwand, beeindruckend. Natürlich wäre da mit größerem Zeitaufwand und gezielter Überlegung noch einiges MEHR DRIN mit Sharpen Pro.


    Für die BILDBEARBEITUNG hätten wir ein Ausgangsmaterial mit richtig gesetztem Fokus, der die Bildaussage und Blickführung unterstützt. Und: hier gibt es auch schon im Ausgangsmaterial viel mehr Details. Hier kann ich mir sehr gut vorstellen, dass man mit dem neuen Verfahren besser zurechtkommt, durch eine natürlichere Verteilung der Grob- bis Microstrukturen. Besonders bei Portraits kann ich mir da eine Verbesserung vorstellen. Auch bei Stimmungs-Bildern, weil die Bildstimmung durch das Schärfen um einiges weniger verändert wird, als vorher. Diese VERSCHIEDENEN Einsatzbereiche zu zeigen, mit ihren unterschiedlichen Anforderungen, wird dann wohl die Aufgabe des Einfürungsseminars sein, glaube ich mal. :) An den gezeigten Demos hier finde ich wichtig, dass es schnelle technische Demos an Extrembeistpielen sind, die eigentlich und uneigentlich in die Kategorie Bild-Reparatur fallen, aber keinesfalls eine ausgefeilte Bildbearbeitung zeigen..


    grüssli merlYnn

  • Hallo merlYnn,


    ich greife mir mal deine Fragen heraus und versuche dazu möglichst in "einer Bier-Länge" drauf zu Antworten.


    BILDBEARBEITUNG UND BILD-RESTAURIERUNG BZW BILD-REPARATUR SIND ZWEI VÖLLIG UNTERSCHIEDLICHE PAAR SCHUHE!

    Hier stimme ich Dir absolut zu - das wird auch gern durcheinandergeworfen.


    Eine Unschärfe-Reduzierung ist keine normale Bildbearbeitung, so wie auch eine gute Bildentrauschung (Mustererkennung in Denoise zum Beispiel) keine normale Bildbearbeitung ist - in beiden Fällen geht es darum, Dinge im Bild sichtbar zu machen die rein in der Aufnahme nicht enthalten sind.


    Beide Verfahren versuchen mit statistischen Mitteln Teile (Pixel) im Bild zu errechnen, die nicht in vollem Umfang vorhanden sind - so überdeckt zum Beispiel ein 20%-iges Bildrauschen auch 20% der Bilddetails durch Zufallszahlen.


    Und die Entscheidung, wie viel Arbeitszeit und auch Berechnungszeit (Stromkosten) sind in großen Stil gedacht eine Kosten-/Zeitfrage.



    1) Bei Sharpen 3 : Was bedeutet dort Radius 200 Prozent? Also: die Einstellung Infinity und Radius 100 Prozent müsste ja schon der gesamte Bildbereich sein. Geht da noch mehr?

    Die 100% Einstellungen des Radius bei der Unschärfe-Reduzierung ist der Durchmesser der Unschärfe-PSF Funktion wie folgt:

    - Stufe Ausgewogen: 6,25% des minimalen Bilddurchmessers (Minimum aus Breite und Höhe)

    - Stufe Pro: 12,5% des minimalen Bilddurchmessers

    - Stufe Pro+: 25,0% des minimalen Bilddurchmessers

    - Stufe Pro Infinity: 50,0% des minimalen Bilddurchmessers


    Bei 200% erreichen wie dann diese Werte:

    - Stufe Ausgewogen: 12,5% des minimalen Bilddurchmessers (Minimum aus Breite und Höhe)

    - Stufe Pro: 25,5% des minimalen Bilddurchmessers

    - Stufe Pro+: 50,0% des minimalen Bilddurchmessers

    - Stufe Pro Infinity: 100,0% des minimalen Bilddurchmessers



    2) Zur Sicherheit nachgefragt: die Infinity Einstellung mit kleinem Radius ist dasselbe wie die Einstellung Ausgewogen mit größerem Radius?

    Die Stufen Ausgewogen, Pro, Pro+, Pro Inifinity unterscheiden sich nicht nur im Radius, sondern auch in der Berechnungsgenauigkeit - Stufe Pro bei 200% ist also nicht zwingend identisch mit Stufe Pro+ bei 100% Radius.


    3) Die Ansicht der PSF Funktion, also die Ansicht der Unschärfeverteilung, machte die Richtung der Verwackelung einer Kamera sichtbar. Die Vorannahme, Prämisse, war hier, dass diese Unschärfeverteilung für jeden Pixel eines Sensors gleich ist, da alle Bildpunkte auf einem Sensor ja fest montiert sind. Also hat man hier mit einer einzigen, quasi ein-direktionalen Berechnung gearbeitet, indem man auf jedes Pixel die gleiche einmalig gemessene Unschärfeverteilung angewendet hat.


    Wenn jetzt eine Unschärfeverteilung für jedes Pixel einzeln errechnet wird - und man das als multi-direktionale Schärfung bezeichnet - und das wirklich bessere Ergebnissse erziehlt, dann heißt das, das die ursprüngliche Prämisse falsch war, dass eine Unschärfeverteilung für alle Pixel am Sensor gleich ist.


    Aber wie hat man sich das vorzustellen, dass es bei fest montierten Bildpunkten am Sensor überhaupt zu multi direktionalen Unschärfen kommen kann? Wie kann es da überhaupt zu unterschiedlichen Unschärfeverteilungen für einzelne Pixel kommen?

    Hier muss ich wohl ein klein wenig ausholen :-)


    Die bisherige Unschärfe-Korrektur bezog sich auf das Verwackeln der Kamera - in diesem Fällen ist die Unschärfe für jeden Pixel im Bild identisch und immer in der gleichen Richtung.

    Auf Basis dieser Annahme wurde in Sharpen #1/#2/#3 die PSF-Unschärfe Verteilung für das Bild ermittelt (so gut das eben geht, weil die eigentlichen Bilddetails diese Berechnung stören :-) ) und diese ermittelte Unschärfe-Verteilung wurde dann mit dem Bild verrechnet.


    Die Multi-direktionale Schärfe ermitteln nun eine kleine PSF-Unschärfe Verteilung (Radius = 1,3 oder 5 Pixel) für jeden Bildpunkt und ist dadurch in der Lage sehr kleine Verwacklungen in unterschiedlichen Richtungen (Multi direktional) zu reduzieren.

    Ein gutes Beispiel ist hier ein Ast oder Gras das sich leicht im Wind bewegt.


    Es geht hier also um zwei unterschiedliche Arten von Unschärfe:

    - globale Unschärfe -> Kamerabewegung

    - lokale Unschärfe -> Objektbewegung


    4) Wie wird es denn mit den alten und neuen Reglern in Sharpen 4 aussehen? Also: werden die alten Pro, Pro Plus und Infinity Einstellungen mit den neuen r=1 oder 3 oder 5 Buttons zusammen einstellbar sein - oder ist es ein Entweder - Oder?

    In Sharpen #4 wird die globale Unschärfe (PSF mit Pro, Pro+, etc.) genauso zu steuern sein, wie in Sharpen #3.


    Ist dann eine Schärfung im Programm gewählt, werden die Schaltflächen für die Multi-direktionale Schärfe sichtbar und können zusätzlich aktiviert werden.


    Im Workflow läuft das etwa so ab:

    - Bild einladen

    - Unschärfe-Automatik anklicken

    - evtl. Werte der Unschärfe Korrektur anpassen

    - Multi-direktionale Unschärfekorrektur wahlweise hinzuschalten

    - Oversampling Stufe wählen sofern gewünscht



    Ich hoffe die Antworten helfen ein wenig weiter.

    Insgesamt ist das Thema der Unschärfe-Korrektur inzwischen schon sehr komplex in der Bearbeitung, aber es ist ja auch eine Programmversion #4 - da sollte schon ein wenig möglich sein ;-)


    VG Michael


    PS:

    Dauert auch nicht mehr all zu lange, bis die Version #4 kommt - ca. 2 Monate benötigt der ganze Produkt-Durchlauf:

    -> Masterbau, Tests, Lokalisierung, Produkttexte und Material, Vergleichsbilder, Anleitungsvideos mit Übersetzung und neuem Einsprechen im Studio, Erstellen von 3D-Covern, usw. usw.

  • Alter das sind ja sooo lange Texte da kann ich ja kaum noch folgen :D

    Wäre cool wenn es kürzer gehe.


    Aber wie hat man sich das vorzustellen, dass es bei fest montierten Bildpunkten am Sensor überhaupt zu multi direktionalen Unschärfen kommen kann? Wie kann es da überhaupt zu unterschiedlichen Unschärfeverteilungen für einzelne Pixel kommen?

    Ich habe mir das mal raus gezogen.

    Das ist heute den hohen Kamera Auflösungen geschuldet und den "nicht" passenden Objektiven. Es ist keines falls möglich eine scharfe Aufnahme mehr mit einer z. B. 50 Megapixel Kamera und nomalem Objektiv (Preisklasse 1.000-3000,-€) zu machen ohne Stativ. Und selbst mit Stativ werden Portrait Aufnehmen immer leicht Unscharf.

    Das Problem ist einfach, dass die Optik im bezahlbaren Bereich nicht mehr zu den Hochauflösenden Sensoren passt. Zum einen muss das Licht genau senkrecht auf allen stellen das Sensors fallen und es sollte eine perfekte Abbildung auf dem Sensor geben. Dieses perfekte "flaten" funktioniert aber nur mit Objektive jenseits der 10.000,- €

    Problemerklärung
    Angenommen es wird eine feine Kontur (z. B. Wimper) auf dem Vollformat-Sensor abgebildet. Dazu braucht es mit einem 11Mp Sensor z. B. 2 Pixel um dies abzubilden. Bei einem 50Mp Sensor sind es schon mehr also so um die 8 Pixel. Wenn sich das Model z. B. leicht bewegt, was es ja immer macht oder die Kamera in der Hand. Dann Sind die Pixel bei 11Mp groß genug um das in diesem Bereich einzufangen, oder es geht max. 1 Pixel daneben.


    Bei einer 50Mp sieht das schon ganz anders aus. Da macht die gleiche Bewegung 4 Pixel aus das bedeutet, dass das Haar bis zu 12 Pixel breit werden kann. Vor allem der Übergang des Kontrast geht auf mehrere Pixel bei einem 50Mp über was bei dem 11Mp nicht ist.


    Und das ist dann der Schärfe unterschied je Bild. Auf dem Bild mit 11Mp ist die Kontur deutlich schärfer, da ja nur 2-3 Pixel benötigt werden. Auf dem 50Mp ist das unschärfer, da hier 8-12 Pixel gebraucht werden.

    Und das ist jetzt nur bei einer Bewegung in einem Vektor in einer Ebene. Kommt eine 2 Vektor in 2 Ebene hinzu, dann vergrößert sich das Problem bei einer 50Mp um noch mal sehr viele Pixel.

    Also ist es für jeden die Frage welchen Kompromiss er will. Mehr Auflösung und Details aber hohe Gefahr der Unschärfe oder weniger Auflösung und mehr Schärfe. Also das jetzt rein bei der Auswahl der Kamera. Ich bin für eine Pixelgröße von Größer als 6 Mikrometer. Alles was kleiner ist, ist nicht mehr gut für scharfe Bilder. Ein ASP-C bei 50Mp hat nur noch 3 Mikrometer. Also 4 x mehr Pixel. Das ist kein gutes Verhältnis mehr.

    Von daher sind bei den heutigen kleinen Sensoren mit solch hoher Auflösung ein Bearbeiten mit einem schärfen Programm unumgänglich.

    HG Markus

  • Hallo Markus , ich hatte das Problem bei Umstieg von der Minolta-Konica Dynax 7 d (6 MP) auf die Sony Alpda 77 ii (24 MP). Bei der Sony kamen mir die Bilder immer etwas unscharf vor, etwas schwammig. Das ist der höheren Auflösung geschuldet.

    Ich habe schon immer gesagt, Pixel sind nicht alles, die Optik bringt viel mehr. Aber da sind uns Amateuere ja die Grenzen mit den Kosten gesetzt.

  • Hallo

    hier mal eine saloppere Erklärung ;)
    Wie Merlynn und Michael es ja schon sagten ist ein Schärfeverfahren keine Bildbearbeitung. Beim schärfen werden Verfahren angewendet um eine Störung zu beseitigen mit Rekonstruktion von Details.

    Angenommen man hat ein schönes scharfes Bild. Über dieses Bild lässt man ein Störung laufen , bei dem man genau weiss wie diese Störung aussieht (z. B. Unschärfe um 4 Pixel nach oben). Das Bild wird dann unscharf. Gibt man diese Störung im Rekonstruktionsverfahren ein, dann kann zu 99% das Bild wieder hergestellt werden und es wird wieder scharf. Leider gehen auch bei bekannter Störgröße niemals 100% Rekonstruktion und es gehen Details verloren.


    Und genau darum geht es, zu ermitteln wie sieht diese Störung aus und was kann diese bewirkt haben. Diese Störung wird über verschiedene Verfahren ermittelt. Also man versucht so genau wie möglich diese Störung nachzubilden in dem alles im Bild untersucht wird, was passiert sein kann. In unserem Fall z. B. was ist passiert beim verwackeln. Ist diese Störung so nah wie möglich an der original Störung, dann kann das Rekonstruktionsverfahren auch die besten Ergebnisse liefern.

    Diese Rekonstruktionsverfahren und das finden der besten möglichen Störung bei der Analyse des Bildes sind der Schlüssel zu scharfen Bildern. Die Entwicklung von immer ausgefeilteren Analyse und Rekonstruktionsverfahren macht es möglich immer bessere Bilder zu bekommen, die halt mal nicht so gut geworden sind.

    HG Markus