Posts by MiPi

Im Rahmen der neuen Europäischen Datenschutzbestimmungen, haben auch wir unsere Datenschutzrichtlinie mit Wirkung zum 25. Mai 2018 für alle Besucher, Nutzer unserer Website aktualisiert. http://projectsforum.de/neu/index.php?datenschutzerklaerung/ Die Änderungen umfassen eine genauere Aufklärung darüber, wie wir deine Daten verwenden, einschließlich deiner Auswahl- und Kontrollmöglichkeiten und deiner Rechte. Ab dem Stichtag unterliegt deine weitere Nutzung unseres Forums der neuen Datenschutzrichtlinie. Hast du Fragen dazu? Rufe uns einfach an unter 06461/989877, oder schreibe uns eine Nachricht an stefan@stefan-runkel-online.de Herzliche Grüße! Dein Projectsforum-Team

    Hallo merlYnn,


    ja, im Moment ist die Zeit da recht begrenzt :-)

    Die Programmierung der Produkte muss da leider den Vorrang haben, obwohl ich gern mehr Zeit für die interessanten Diskussionen hätte.


    Man könnte sich zum Beispiel die Frage stellen wie ein Effekt aussieht, der den Farbkreis beliebig in sich verdrehen kann - also eine Projektion über eine Kurve die den Winkeln 0 bis 360 grad neue Winkel zuweist.


    Der Küppers Farbkreis nimmt die 3 Grundfarben, fügt schwarz und weiß als Farbe hinzu (Helligkeit) und nimmt dann noch die möglichen reinen Mischfarben aus r,g,b -> magenta, cyan, gelb und macht daraus eine 8 Grundfarbenlehre - im Grunde nimmt man also die erste "Mischstufe" der RGB Farben mit hinein.

    Diese 8 Farben sind den erste 8 Farben des C64 übrigens sehr ähnlich.


    Und jetzt geh ich mal lieber wieder an die Arbeit... ;-)


    VG Michael

    Hallo Hans-Michael,


    mein aktueller Stand ist, das in Zukunft die projects-Reihe nur noch für Windows 64-Bit entwickelt wird.

    Ob das immer so bleiben wird, kann ich natürlich nicht sagen, aber ich gehe davon aus.


    Warum dieser Schritt?

    Ich kann das nur aus Entwicklerseite beschreiben und da ist es so, dass der Entwicklungsaufwand mit jeder neuen Apple OS Version massiv gestiegen ist - begonnen hat das mit dem Sandboxing in OSX 10.8 und wurde dann mit jeder Version aufwendiger (in 2010 braucht eine Apple Version 5% zusätzliche Entwicklungszeit und in 2020 sind es mehr als 30% zusätzliche Entwicklungszeit)

    Nun kommt noch die neue Prozessor Architektur hinzu, was für projects bedeuten würde wir müssten etwas 40% des Programmcodes neu- bzw. umschreiben, das würde etwa 1 Jahr dauern mit dem ganzen Programmierteam.


    Wenn man dann in die Nutzerzahlen von "projects" schaut, sind aktuell noch knapp unterhalb von 5% der Nutzer Apple User und 95% sind Windows User - ich befürchte also, dass es gar nicht so viele Nutzer sind die sich bei Franzis verabschieden werden (aber das weiß nur der Verlag selbst).



    Was ich empfehlen kann ist der Betrieb im Windows Emulator - das funktioniert unter Apple OS sehr gut und auch sehr schnell.


    Sorry, dass ich hier keine besseren Nachrichten habe, aber die Argumente sprechen leider für sich.


    VG Michael

    Hallo merlYnn,


    WoW, da hast du Dir aber viel Mühe gegeben - herzlichen Dank an dieser Stelle!


    Ich habe mir die LUT schon einmal heruntergeladen und werde mich da mal Stück für Stück durcharbeiten.

    Aktuell muss ich aber erst einmal an einem Programm mit Bildschärfe noch ein wenig arbeiten :-)


    Die Varianten mit dem Goethe-Farbkreis finde ich besonders spannend - die unterschiedlichen Farbkreise habe ich mir vor einer Weile auch schon einmal genauer angesehen.

    Wirklich interessant wie früh man sich hier bereits Gedanken gemacht hat!


    Und auch sehr spannend, dass die unterschiedlichen Farbkreise ähnlich wie auch die Farbräume immer wieder zu Spannungen zwischen den Leuten und zum Teil sogar philosphischen Diskussionen führen ;-)


    VG Michael

    Laut meine Plan darf ich Euch DENOISE projects 4 professional am Dienstag, 27.04.2021 um 17Uhr vorstellen.

    (Der Vortrag findet mit einer neuen Softwarelösung statt, die bei Euch aber komplett im Browser laufen wird.)


    Freue mich schon darauf :-)


    VG Michael

    Hallo Thomas,

    Denoise 4 habe ich gerade als Demo runtergeladen um zu checken, was ich von den neuen Funktionen in die Stapelverarbeitung bekomme und was nur für manuelle Einzelbearbeitung gedacht ist. Warum gibt's -auch in den Vorversionen- in der Maske Stapelverarbeitung überhaupt die automatische Ausrichtung, wenn Stacking unverändert nur im manuellen Einzelbetrieb möglich ist? Gibt's vielleicht ein Stapelformat wie MPO (Multi Picture Objects) für JPG´s, das Denoise 4 einlesen kann? Oder was soll mit dieser Funktion ausgerichtet werden?


    Übertragen sich die vielen neuen Einstellungen unter der Automatik zu Kanälen und Luminanz und das Darkframe auf die Stapelbearbeitung?

    das Noise Stacking sowie Dark- und Flatframe sind ausschließlich im Einzelbetrieb sinnvoll einsetzbar, da sich jeder Stack unterscheidet und sowohl Dark & Flatframe immer exakt zur Aufnahmen passen müssen - man kann ja nicht mit irgendeinem Darkframe auf mehrere Aufnahmen losgehen, die vielleicht in unterschiedliche Situation aufgenommen wurden.


    Ansonsten gibt es natürlich die Möglichkeit in den Einstellungen die Automatik Zurücksetzung zu deaktivieren, um den Modus "Ausgewogen, Pro, Pro+, Pro Inifinity" sowie Körnung und Virtuelle Mikrodetails in der Stapelverarbeitung nutzbar zu machen.


    In der Stapelverarbeitung selbst kann du die 7-Stufige Automatik nutzen oder ein Preset komplett individuell aus dem Expertenmodus nutzen.


    VG Michael

    Hallo Thomas,

    bei mir ist inzwischen der neue Laptop angekommen und ich habe nun reichlich Bildbearbeitungsprogramme neu installiert. Bei LUT und Zoom sind auf einem 4K 17 Zoll Bildschirm die Bearbeitungsleisten sehr klein, wäre gut, wenn man die Seitenfenster vergrößern könnte. Nach unten entstehen ja Laufleisten.

    Gratulation zum neuen Laptop! Neue Hardware ist immer etwas tolles :-)


    Zum Thema 4K und 17" versuche ich mich einmal sehr vorsichtig auszudrücken:

    Auf 17" und 4K müsstest du bei 100% Sehschärfe etwa 22cm vom Bildschirm entfernt sein, damit du zumindest die Chance hast die Pixel zu erkennen ;-)


    Die Breiten der Seitenleisten sind tatsächlich fest eingestellt, bzw. abhängig von der Desktopauflösung - unter HD 1920px habe diese eine Breite von ca. 280 Pixel, unter uHD 3840px eine Breite von 420 Pixel (die ganz genauen Werte habe ich nicht im Kopf)

    Dazu kommt dann die Schriftgröße die man unter Windows einstellt, die sich in den Anwendungen natürlich auch bemerkbar macht.


    Als Entwickler müssen wir uns für eine Basisschriftgröße und Auflösung entscheiden, um die herum sich das Programm anpasst:

    Für alle Programme ab 2020 von mir (also HDR 8, LUT, ZOOM, DIVE, SHARPEN Video, DENOISE 4 ist übrigens gerade erschienen) ist das 1920px oder 2560px oder 3840px bei der unter Windows 10 Standardschriftgröße von 150% bei 3840px.


    Mit diesen Einstellungen funktionieren so gut wie jede Software (auch außerhalb von Projects) gut leserlich, also so in Windows eingestellt:


    Mein Bildschirm ist allerdings 27" groß, was für uHD 4K eigentlich immer noch zu klein ist, um das wirklich erkennen zu können - 30" wäre hier gut.



    Was du auch noch machen kannst, ist mit den Schriftarten herumspielen (je nachdem was auf deinem System installiert ist, werden dir Fonts in LUT / ZOOM / HDR 8 angezeigt.

    Hier gibt es zahlreiche Möglichkeiten "schmalere" Fonts zu nutzen, um mehr Text in die Felder hineinzubekommen.


    Ich hoffe das hilft Dir ein wenig weiter :-)


    VG Michael

    Hallo DarkDude,


    das mit dem Speicher wird ganz bestimmt klappen - schlussendlich muss sich doch jemand finden lassen, der mit deiner Bestellung auch ein wenig verdienen möchte :-)


    So, ich glaube heut mach ich mal etwas früher Feierabend - in diesem Sinne eine Gute Nacht!


    VG Michael

    Hallo DarkDude,


    ich kann den Frust wirklich verstehen und mir selbst geht es bei Hardware inzwischen genauso - deswegen bestelle ich die Hardware für meine System inzwischen auch über einen Dienstleister, der die Rechner dann zusammenstellt. Ansonsten hängt man auch noch in der Hardware-Support Schleife fest.


    Schlussendlich sind wir als Kunden aber leider auch nicht unschuldig an der Sache, da wir nach immer günstigeren Preisen verlangen und damit die Preis-Spirale immer weiter drehen.


    ich hoffe ich kann es mir noch lange erlauben, mit der Software die ich bauen auch einen guten Support zu machen - aber mal so ganz unter uns: Wenn die Software regelmäßig für €29,-- oder weniger verkauft wird, dann werde ich das auch nicht mehr sehr lange durchhalten können :-)


    Aber zurück zum "SkyLum Problem":

    Wenn ich mich recht erinnere, soll hier das Paket "Net 4.7.2" von MicroSoft installiert werden, danach die "VCredist2013" und danach die "VCredist2015-2019"


    Das mit dem Speicher ist wirklich komisch, ich vermute die haben deine Speicherbausteine einfach nicht auf Lager und dann wird halt kommentarlos storniert - kein gutes Benehmen...


    VG Michael

    Hallo nochmal :-)

    Ja, diese Fehlermeldung hatte ich. Ich dachte, ich hätte längere Berechnungszeit gewählt.

    Soweit ich mich erinnere, müsste die Stapelverarbeitung dies automatisch auf "verkleinern" stellen, damit immer alle Bilder geladen und verarbeitet werden und sich "nur" die Ausgabegröße an den Speicher anpasst.


    Nachtrag:

    Ich habe gerade zur Sicherheit noch einmal in die Quellcodes geschaut: Während der Stapelverarbeitung wird immer automatisch auf "Verkleinern" geschaltet.

    Die Skalierung wird dabei automatisch pro Sequenz berechnet (scalevalue), abhängig davon wie viel Speicher Windows gerade "herausgeben" würde.


    Sieht dann so aus ;-)

    Und genau das haben wir bei Dir beobachtet - die Bilder waren zum Teil sehr unterschiedlich groß, weil vermutlich noch einiges auf dem Rechner "in Bewegung" war,


    Geht das irgendwie zurückzusetzen?

    Wenn du eine Sequenz manuell einlädst, wirst du bei jeder Sequenz individuell gefragt und kannst auch auf "alle Einladen" klicken - damit wird dann die Windows Auslagerung zusätzlich genutzt und du kannst Sequenzen einladen, die deinen Arbeitsspeicher eigentlich übersteigen würden.


    32 GB RAM mit neuem Gehäuse ist im Anmarsch. Also warte ich noch paar Tage.

    Mit 32GB solltest du eigentlich ohne Probleme auch 25er Sequenzen dieser Größe (74.7 Megapixel) bearbeiten können.

    (Mein 64GB System kommt auf 56 Bilder a 74.7 MP die geladen werden können, bevor die Speichermeldung erscheint - also gut 4.2 Gigapixel Bilddaten)


    VG Michael

    Hallo Thomas,

    ich glaube, ich hatte diese Meldung mal, als ich 9 HiRes RAW eingeladen habe, jede hat da über 100MB. Die Frage war aber nach Stückzahlenreduzierung, nicht Auflösungsreduzierung :/ .

    Die Meldung sollte eigentlich so ausgesehen haben:

    Also mit 3 Optionen - Verkleinern, Sequenz reduzieren, Alle einladen



    Im Testlauf mit 2er Reihen gibt es keine Probleme. Bin schon bei über 50 Reihen in der Ausgabe. Ich hatte mir bei den großen 9er Reihen die RAM Nutzung im Taskmanager angeschaut, es ging nur bis 8,4 von 16. Jetzt geht's bis 7,4 GB Nutzung.

    Ich habe das gerade bei mir mal ausprobiert mit 200 deiner Bilder in einer Sequenz - der Taskmanager zeigte mit 28.9GB bei NEAT 2 an, während der Rechner insgesamt bei 64/64GB war und kräftig auslagerte -> Die Anzeige im Windows Taskmanager ist allenfalls "eine grobe Schätzung. :-)


    Rechenbeispiel für diesen Fall:

    - Bei 9 Bildern mit 74.7 Megapixel benötigen diese Bilder plus die Gewichtungsspeicher insgesamt 9x 747MB = 6.7GB RAM (plus diverse Buffer für Fusionsergebnis in 32Bit, PostProcessing Ergebnis, etc)

    - Bei 2 Bildern mit 74.7 Megapixel benötigen diese Bilder plus die Gewichtungsspeicher insgesamt 2x 747MB = 1.5GB RAM (plus diverse Buffer für Fusionsergebnis in 32Bit, PostProcessing Ergebnis, etc)


    Die Differenz im TaskManager müsste also mindestens 6.7GB minus 1.5GB = 5.2GB sein - bei Dir ging der Speicherverbrauch von 8.4GB auf 7.4GB nur um 1 GB herunter -> das meinte ich mit "die Anzeige ist allenfalls eine grobe Schätzung" ;-)


    Was passiert dann, wenn man mehr als 9 Stück pro Reihe auswählen kann?

    Das ist leicht zu beantworten - für eine korrekte Berechnung würde noch mehr Speicher benötigt werden.


    Komisch, dass dann die manuelle Bearbeitung ohne Probleme geht, nur im Stapel wird wegen RAM die Auflösung reduziert. Kann Windows nicht auf die SSD auslagern?

    Der Unterschied liegt hier in der manuellen Bearbeitung und der Stapelverarbeitung.


    Diese beiden Berechnungsmöglichkeiten muss ich von der Programmierung komplett differenzieren, da in einer Stapelverarbeitung nicht die Fragenboxen auftauchen dürfen.

    (das wäre eine komische Stapelverarbeitung, wenn man daneben sitzen müsste und ständig Antworten geben muss)


    Die Stapelverarbeitung muss also komplett autark funktionieren und darf sich nicht durch "unbeantwortete Fragen" selbst unterbrechen - in diesem Zuge muss der Prozess die Fragen dann "für sich selbst" beantworten, also Entscheidungen treffen und genau das passiert hier wahrscheinlich (Ich müsst hier in die Quellen schauen, da ich diese Logik vor etwa 4 Jahren programmiert habe)


    In der manuellen Berechnung kann der Nutzer das Programm führen, was zur Folge hat dass hier mehr Möglichkeiten gegeben sind.



    Bei diesen Bildgrößen und Sequenzlängen würde ich vor allem eines empfehlen -> mehr RAM im Rechner :-) 32GB ist sicher die richtige Wahl.

    (18 Bilder zu 74.7 Megapixel sind immerhin schon 1.344 Gigapixel Bildfläche)


    Anbei komprimiert zwei Kamera JPG's, "Bewegung sehr weich entfernen". Das wärmere ist mit IR-CUT ND1000 Clip-Filter, das kältere nur mit Sensor Protector Clip Filter. Beide bei fixem AWB sonnig. Die Kamera JPG sind ohne Entrauschung bei geringster Kontrast-, Farb- und Schärfeeinstellung aufgenommen. Dafür gibt's ja Software :) .

    Das sieht wirklich sehr gut aus - vielleicht würde hier eine "HDR aus einem Bild" Entwicklung noch einiges herausholen, wenn du das als 16-Bit Tiff aus der NEAT-Fusion heraus abspeicherst.


    VG Michael

    Hallo nochmal,


    ich habe die Daten mit der exakt gleichen Programmversion 2.24.2872 von NEAT 2 professional durchlaufen lassen und zwar in 3 Varianten - dabei habe ich das Programm jedes Mal neu gestartet, um eine vergleichbare Situation zu schaffen:


    (a) Bildvorbereitung: Alles deaktiviert

    -> Alle Bilder sind ohne Ausnahme 12224x6112 Pixel groß



    (b) Bildvorbereitung: Alles deaktiviert bis auf "automatischer Zuschnitt"

    -> Alle Bilder sind ohne Ausnahme 12224x6112 Pixel groß


    (c) Bildvorbereitung: Alles auf Standardwerten (unten Links zurückgesetzt im Dialog)

    Durch die aktivierte Bildausrichtung und den aktivierten automatischen Zuschnitt sind einige Bilder erwartungsgemäß um ein paar Pixel kleiner geworden (3 Pixel war die maximale Verkleinerung bei mir)



    Den ganzen Test habe ich hier auf 2 Rechnern gemacht, beide mit exakt dem gleichen Ergebnis...

    Ich stehe also wieder an dem Punkt, dass ich den Fehler nicht reproduzieren kann und muss nun also raten :-)


    Da die Bilder sehr groß sind 74.7 Megapixel könnte es ein Speicherproblem sein.

    Frage: NEAT 2 hat eine Mechanik eingebaut, die bei zu hohem Speicherverbrauch anbietet, die Bildsequenz zu verkleinern -> hast du das evtl. vorher beim Einladen einer Sequenz angeklickt?


    Die unterschiedlichen Bildgrößen bei deinem Test sprechen auch dafür, dass es mit dem Speicherverbrauch und der Verkleinerungsautomatik bei "zu wenig freiem RAM" zu tun haben könnte.



    Experiment:

    Kannst du bitte einmal eine 2-Bild Gruppierung einschalten und schauen, ob es bei diesen Bilder dann auch zu Größenabweichungen kommt?

    (Wenn du hier 20-30 im Stapel testest, sollte das reichen - also 10-15 aus 2 Bildern fusionierte Ergebnisse)


    VG Michael

    Hallo Thomas,


    um das nachprüfen zu können, müsste ich mir die Reihen bei mir ansehen können.

    Kannst du mir ein oder zwei Reihen schicken, bei denen die Auflösung verändert wird und dazu bitte einen Screenshot der Bildvorbereitung legen?


    Die Auflösung dürfte sich eigentlich nur verändern können, wenn entweder eine "Skalierung" oder die "Bildausrichtung" in der Bildvorbereitung aktiv sind.

    In allen anderen Fällen wird die Auflösung der Bilder nicht "angefasst".


    VG Michael

    Hallo Thomas,

    Im Programm hatte ich einen eigenes "Bewegungs-Fusions Profil" angelegt, aber wirkt das dann auch in der Stapelverarbeitung? So weit habe ich noch nicht getestet.

    die Fusions-Profile wirken direkt auf die Einstellungen der Algorithmen, allerdings muss man in der Stapelverarbeitung ein Algorithmen-Preset auswählen.

    Das bedeutet die Profile sind nicht in der Stapelverarbeitung anwendbar.


    Ich weiß die Stapelverarbeitung ist Dir sehr wichtig - leider bist du damit in einer sehr kleinen Gruppe.

    (nur etwa 4-6% der Nutzer haben überhaupt jemals die Stapelverarbeitung genutzt)


    Ich schau mal, ob ich hier in der Zukunft was machen kann.


    Ich würde bis 20 die Staffelung einzeln machen (damit 3er und 5er Reihen 4fach einstellbar) und dann in größeren Schritten. Keine Ahnung, was bei Focus Stacking so anfällt, aber klar ist, das die Bilderstapel vorher auf die genaue Anzahl zurechtgestutzt werden müssen.

    Bis 20 in 1er Schritten klingt sinnvoll - danach in 5er Schritten, wobei ich auch 24 mitnehmen würde (um 24fps Videos Sekundenweise abbilden zu können).

    Und dann bis 50 in 5er Schritten, danach dann in 10er Schritten bis 100.


    Eben schnell eingebaut - auf jeden Fall besser so :-)


    Die automatische Erkennung funktioniert bei meinen Fotos nicht. Aus 13 Stück 18er Serien (9er Serien einfach im Ordner dupliziert) wurden drei Stapel generiert.

    Vermutlich sind sich diese Stapel dann recht ähnlich - die automatische Erkennung sucht unterschiedliche Motive heraus, wenn man zum Beispiel nur Landschaften mit dem Horizont in der MItte im Ordner hat, ist der Unterschiedlich wohl zu gering.


    VG Michael

    Hallo Thomas,

    Also ist doch eine neue Version von NEAT pro in Sicht :) . Oder gibt's vielleicht ein Update? Vielleicht gibt's auch noch eine neue Lösung für treibende Wolken am Himmel.

    die Änderung habe ich erst einmal für alle Fusionsprogramme gemacht, also für kommende HDR; FOCUS; NEAT Versionen - aktuell habe ich die Arbeit an einer neuen Neat Version noch nicht aufgenommen, was aber nicht heißt, dass es keine geben wird :-)


    Etwas blöd ist, dass sich die Einstellungsparameter immer wieder auf Multipass zurücksetzten. In den Programmeinstellungen kann man das nicht deaktivieren. Ich bearbeite ja linkes und rechtes Auge immer parallel in Ordnern und zur Zeit noch mehrere Durchgänge.

    Wenn ich in den "Einstellung -> Automatiken" die Option "Bewegungs-Algorithmen zurücksetzen" deaktiviere, wird der Bewegungs-Algorithmus und auch deren Parameter nicht mehr zurückgesetzt, wenn ich eine neue Sequenz einlade.


    Vielleicht wären auch die Einstellbaren "Bewegungs-Fusions Profile" etwas für dich, da kannst du in einem Profil die Einstellung für alle Algorithmen speichern und jederzeit wieder aufrufen :-)


    das ist eine sehr gute Erweiterung. 50 müsste gut reichen,

    Ich überlege hier noch, ob man eine Staffelung machen sollte - evtl. so;

    -> 1,2,3,4,5,6,7,8,9,10,15,20,25,30,40,50,60,70,80,90,100

    Dann sind es nicht so viele Einträge und man könnte die Zahlen noch ein wenig "nach oben" treiben.


    VG Michael

    Hallo Huebi,

    Da diese 9 Fotos nicht immer ausreichend sind und ich bei den effektivsten Verfahren zur Bewegungsentfernung immer mit den Wolken am Horizont synthetische Zeichnungen erzeugt habe, habe ich mal diese 9er Reihen einfach mit 5 verschiedenen bewegungseliminierenden Verfahren (Multipass, Matrix Farbe, normal weich, sehr weich) in einen Zielordner laufen lassen und dann diese 5er Reihen aus den unterschiedlichen Methoden als Langzeitbelichtung zu finalen Bildern entwickelt.

    eine interessante Herangehensweise die im Focus Stacking Programm in etwa der "Focus-Boost" Technologie entspricht - hier wird der aktuelle Focus-Stack mit unterschiedlichen Parametern gestackt und die Ergebnisse dann erneut mit Focus-Stacking behandelt (komplett intern), um die Schärfe des Ergebnisbildes zu verbessern.


    Das hier auf die Bewegungs-Algorithmen anzuwenden ist ein guter Trick :-)


    Die Stapelverarbeitung kann übrigens mehr als 9 Bilder in einer Sequenz verarbeiten, allerdings nicht per "fester Einstellung" sondern nur per Motiverkennung. Ich werde mir mal notieren, dass zu erweitern, vielleicht bis zu 30 Bilder fest einstellbar.


    VG Michael

    Hallo merlYnn,


    ich greife mir mal deine Fragen heraus und versuche dazu möglichst in "einer Bier-Länge" drauf zu Antworten.


    BILDBEARBEITUNG UND BILD-RESTAURIERUNG BZW BILD-REPARATUR SIND ZWEI VÖLLIG UNTERSCHIEDLICHE PAAR SCHUHE!

    Hier stimme ich Dir absolut zu - das wird auch gern durcheinandergeworfen.


    Eine Unschärfe-Reduzierung ist keine normale Bildbearbeitung, so wie auch eine gute Bildentrauschung (Mustererkennung in Denoise zum Beispiel) keine normale Bildbearbeitung ist - in beiden Fällen geht es darum, Dinge im Bild sichtbar zu machen die rein in der Aufnahme nicht enthalten sind.


    Beide Verfahren versuchen mit statistischen Mitteln Teile (Pixel) im Bild zu errechnen, die nicht in vollem Umfang vorhanden sind - so überdeckt zum Beispiel ein 20%-iges Bildrauschen auch 20% der Bilddetails durch Zufallszahlen.


    Und die Entscheidung, wie viel Arbeitszeit und auch Berechnungszeit (Stromkosten) sind in großen Stil gedacht eine Kosten-/Zeitfrage.



    1) Bei Sharpen 3 : Was bedeutet dort Radius 200 Prozent? Also: die Einstellung Infinity und Radius 100 Prozent müsste ja schon der gesamte Bildbereich sein. Geht da noch mehr?

    Die 100% Einstellungen des Radius bei der Unschärfe-Reduzierung ist der Durchmesser der Unschärfe-PSF Funktion wie folgt:

    - Stufe Ausgewogen: 6,25% des minimalen Bilddurchmessers (Minimum aus Breite und Höhe)

    - Stufe Pro: 12,5% des minimalen Bilddurchmessers

    - Stufe Pro+: 25,0% des minimalen Bilddurchmessers

    - Stufe Pro Infinity: 50,0% des minimalen Bilddurchmessers


    Bei 200% erreichen wie dann diese Werte:

    - Stufe Ausgewogen: 12,5% des minimalen Bilddurchmessers (Minimum aus Breite und Höhe)

    - Stufe Pro: 25,5% des minimalen Bilddurchmessers

    - Stufe Pro+: 50,0% des minimalen Bilddurchmessers

    - Stufe Pro Infinity: 100,0% des minimalen Bilddurchmessers



    2) Zur Sicherheit nachgefragt: die Infinity Einstellung mit kleinem Radius ist dasselbe wie die Einstellung Ausgewogen mit größerem Radius?

    Die Stufen Ausgewogen, Pro, Pro+, Pro Inifinity unterscheiden sich nicht nur im Radius, sondern auch in der Berechnungsgenauigkeit - Stufe Pro bei 200% ist also nicht zwingend identisch mit Stufe Pro+ bei 100% Radius.


    3) Die Ansicht der PSF Funktion, also die Ansicht der Unschärfeverteilung, machte die Richtung der Verwackelung einer Kamera sichtbar. Die Vorannahme, Prämisse, war hier, dass diese Unschärfeverteilung für jeden Pixel eines Sensors gleich ist, da alle Bildpunkte auf einem Sensor ja fest montiert sind. Also hat man hier mit einer einzigen, quasi ein-direktionalen Berechnung gearbeitet, indem man auf jedes Pixel die gleiche einmalig gemessene Unschärfeverteilung angewendet hat.


    Wenn jetzt eine Unschärfeverteilung für jedes Pixel einzeln errechnet wird - und man das als multi-direktionale Schärfung bezeichnet - und das wirklich bessere Ergebnissse erziehlt, dann heißt das, das die ursprüngliche Prämisse falsch war, dass eine Unschärfeverteilung für alle Pixel am Sensor gleich ist.


    Aber wie hat man sich das vorzustellen, dass es bei fest montierten Bildpunkten am Sensor überhaupt zu multi direktionalen Unschärfen kommen kann? Wie kann es da überhaupt zu unterschiedlichen Unschärfeverteilungen für einzelne Pixel kommen?

    Hier muss ich wohl ein klein wenig ausholen :-)


    Die bisherige Unschärfe-Korrektur bezog sich auf das Verwackeln der Kamera - in diesem Fällen ist die Unschärfe für jeden Pixel im Bild identisch und immer in der gleichen Richtung.

    Auf Basis dieser Annahme wurde in Sharpen #1/#2/#3 die PSF-Unschärfe Verteilung für das Bild ermittelt (so gut das eben geht, weil die eigentlichen Bilddetails diese Berechnung stören :-) ) und diese ermittelte Unschärfe-Verteilung wurde dann mit dem Bild verrechnet.


    Die Multi-direktionale Schärfe ermitteln nun eine kleine PSF-Unschärfe Verteilung (Radius = 1,3 oder 5 Pixel) für jeden Bildpunkt und ist dadurch in der Lage sehr kleine Verwacklungen in unterschiedlichen Richtungen (Multi direktional) zu reduzieren.

    Ein gutes Beispiel ist hier ein Ast oder Gras das sich leicht im Wind bewegt.


    Es geht hier also um zwei unterschiedliche Arten von Unschärfe:

    - globale Unschärfe -> Kamerabewegung

    - lokale Unschärfe -> Objektbewegung


    4) Wie wird es denn mit den alten und neuen Reglern in Sharpen 4 aussehen? Also: werden die alten Pro, Pro Plus und Infinity Einstellungen mit den neuen r=1 oder 3 oder 5 Buttons zusammen einstellbar sein - oder ist es ein Entweder - Oder?

    In Sharpen #4 wird die globale Unschärfe (PSF mit Pro, Pro+, etc.) genauso zu steuern sein, wie in Sharpen #3.


    Ist dann eine Schärfung im Programm gewählt, werden die Schaltflächen für die Multi-direktionale Schärfe sichtbar und können zusätzlich aktiviert werden.


    Im Workflow läuft das etwa so ab:

    - Bild einladen

    - Unschärfe-Automatik anklicken

    - evtl. Werte der Unschärfe Korrektur anpassen

    - Multi-direktionale Unschärfekorrektur wahlweise hinzuschalten

    - Oversampling Stufe wählen sofern gewünscht



    Ich hoffe die Antworten helfen ein wenig weiter.

    Insgesamt ist das Thema der Unschärfe-Korrektur inzwischen schon sehr komplex in der Bearbeitung, aber es ist ja auch eine Programmversion #4 - da sollte schon ein wenig möglich sein ;-)


    VG Michael


    PS:

    Dauert auch nicht mehr all zu lange, bis die Version #4 kommt - ca. 2 Monate benötigt der ganze Produkt-Durchlauf:

    -> Masterbau, Tests, Lokalisierung, Produkttexte und Material, Vergleichsbilder, Anleitungsvideos mit Übersetzung und neuem Einsprechen im Studio, Erstellen von 3D-Covern, usw. usw.

    Hallo Thomas,

    Das sind ja richtig gute Aussichten auf die neue Version. :) Da such ich mir Einstellungen für feines, klares "VR-Sharpen" raus, was zu meinem Ausgangsmaterial gut passt.

    Ich kann auch gern als Betatester :evil: fungieren , bis die Upgradeversion von Sharpen 3 pro auf 4 pro rauskommt.

    für einen Beta Test sind wir leider schon viel zu spät :-)

    Ich finalisiere am Freitag die Texte für die Übersetzung, danach kann ich im Programm nur noch Bugfixes machen...


    Sobald die Version verfügbar ist, können wir da aber gern noch einmal zusammenkommen, aktuell ist der Prozess nicht mehr aufzuhalten, da die Zeiten in den Agenturen (Loka) schon gebucht sind.


    Ich hoffe die Funktion wird stabil laufen, denn ausreichend testen kann ich diese vor den Masterversionen nicht mehr :-)


    VG Michael

    Hallo merlYnn,


    ich versuche mal die Regler mit einer möglichst einfachen und sinnvollen Umschreibung darzustellen und mache das am Beispiel der komplexesten Form der Schärfe in SHARPEN #3/#4 - der Unschärfe-Reduzierung.


    Regler "Korrektur:

    Das ist im Prinzip die Deckkraft - eine geringe Korrektur rechnet die PSF-Funktion (Unschärfeverteilung) nur in geringem Maß auf jeden Pixel


    Regler "Radius":

    Bildet die Größe des Umkreises, in dem um jeden Pixel herum nach Unschärfen gesucht wird. Die PSF-Funktion (Unschärfeverteilung) bildet dabei den maximalen Radius bei der aktuell eingestellten Qualität (Pro, Pro+, etc.)

    Der größer der Radius ist, desto gröbere Details (Details mit größerer Ausdehnung) können dabei Unschärfe-reduziert werden


    Regler "Qualität":

    Gibt an mit welcher Genauigkeit die PSF-Funktion interpretiert wird. Ein hoher Wert nimmt dabei auch noch sehr schwache Werte in der PSF-Funktion in die Berechnung hinein, rechnet also genauer und damit länger.


    Regler "Feinheit:

    Die Feinheit bestimmt, in wie vielen aufeinanderfolgenden Schritten die Unschärfe mit dem eingestellten Radius berechnet wird.


    Ein Beispiel -> Nehmen wir einmal an unser Radius wäre auf 20 Pixel eingestellt für die PSF Funktion

    - bei geringer Feinheit hätten wir dann 3 Durchläufe für die Unschärfe-Korrektur mit "20p, 8p, 2p" Radius

    - bei hoher Feinheit werden dann bis zu Radius / 2 aufeinanderfolgende Durchläufe berechnet, also zum Beispiel "20p, 17p, 15p, ..., 3p, 2p, 1p" Radius


    HD_Farbschutz:

    Ist der HD Farbschutz aktiviert, wird diese Berechnung für alle Kanäle einzeln durchgeführt (r,g,b) - ist der HD Farbschutz deaktiviert wird die Berechnung auf dem Luminanzkanal gemacht.


    Stimmt das überhaupt so? - Wenn wir diese Grundlagen "drin" haben, dass wir bei jedem Regler uns ganz plastisch vorstellen können, was da geschieht - können wir ja mal schauen, was ein multi-direktionales Schärfeverfahren ist :)

    Das Multi-direktionale Schärfungsverfahren greift die PSF-Funktion wieder auf, erstellt diese aber nicht für das gesamte Bild ein Mal, sondern eine individuelle PSF-Funktion für jeden Pixel im Bild.


    Nehmen wir mal einen Radius von r=3 Pixeln für die Multi-direktionale Schärfe:

    Um eine solche "pro Pixel PSF-Funktion" zu berechnen, muss man für jeden Bildpunkt im Radius von (2*r+1) * (2*r+1) die Bildflächen der Größe (2*r+1) * (2*r+1) vergleichen und dann die resultierende Pixel PSF-Funktion mit dem aktuellen Bildpunkt verrechnen.

    Dabei wird bei einem Radius von r=3 nacheinander jede Stufe r=3, r=2, r=1 berechnet und zusammengefügt.


    In der Mathematik ergibt sich hier eine sogenannte Mächtigkeit von Z(r) = r * (2*r+1) * (2*r+1) * (2*r+1) * (2*r+1) entspricht (r hoch 5, weil 5x r vorkommt) - das bedeutet -> Erhöhen wir den Radius um 1 Pixel in der Multi-direktionalen Schärfe, steigt der Berechnungsaufwand "in 5-ter Ordnung".


    Dauert beispielsweise eine Berechnung der Multi-direktionalen Schärfe auf einem 12 Megapixel Bild:

    -> mit r=1 Pixel 2 Sekunden

    -> erhöht sich diese Zeit mit r=2 um Faktor 15.43 -> Z(2) / Z(1) -> also auf ca. 30 Sekunden

    -> erhöht sich diese Zeit mit r=3 um Faktor 207.49 -> Z(3) / Z(1) -> also auf ca. 414 Sekunden


    Man merkt, dass diese Methode extrem rechenaufwendig ist - Sharpen #4 wird 3 Stufen anbieten: r=1 Pixel, r=3 Pixel, r=5 Pixel



    Und jetzt ein paar Bilder und gemessene Zeiten dazu aus der Sharpen #4 Prototyp Version:


    Originalbild (1/2 Megapixel)


    Verwacklung "Intensive Korrektur" Preset - Modus "Ausgewogen"


    Zusätzlich aktiviert: Muti-direktionale Schärfe mit r=1 Pixel - Zeit 0.05 Sekunden


    Zusätzlich aktiviert: Muti-direktionale Schärfe mit r=3 Pixel - Zeit 0.11 Sekunden


    Zusätzlich aktiviert: Muti-direktionale Schärfe mit r=5 Pixel - Zeit 0.24 Sekunden


    Zusätzlich aktiviert: Muti-direktionale Schärfe mit r=10 Pixel - Zeit 2.95 Sekunden


    Zusätzlich aktiviert: Muti-direktionale Schärfe mit r=20 Pixel - Zeit 75.1 Sekunden


    Die Zeiten wurden auf meinem 32-Kern AMD-TR-3970x System gemessen.


    Bei einem Radius von r=20 Pixeln würde diese Methode auf aktuellen Rechnern für ein normales 24 Megapixel Bild bereits im Bereich von "Stunden" liegen, weshalb ich erst einmal nur r=1, r=3 und r=5 Pixel anbiete.



    Falls ich ein wenig zu sehr in die Mathematik abgedriftet bin - Sorry ;-)


    VG Michael