Fujifilms "ISO lose Sensoren" und Denoise Projects

Im Rahmen der neuen Europäischen Datenschutzbestimmungen, haben auch wir unsere Datenschutzrichtlinie mit Wirkung zum 25. Mai 2018 für alle Besucher, Nutzer unserer Website aktualisiert. http://projectsforum.de/neu/index.php?datenschutzerklaerung/ Die Änderungen umfassen eine genauere Aufklärung darüber, wie wir deine Daten verwenden, einschließlich deiner Auswahl- und Kontrollmöglichkeiten und deiner Rechte. Ab dem Stichtag unterliegt deine weitere Nutzung unseres Forums der neuen Datenschutzrichtlinie. Hast du Fragen dazu? Rufe uns einfach an unter 06461/989877, oder schreibe uns eine Nachricht an stefan@stefan-runkel-online.de Herzliche Grüße! Dein Projectsforum-Team
  • Hallo Zusammen,


    vielleicht hilft hier eine etwas andere Betrachtung:


    Wenn wir mal ein 32-Bit Bild annehmen, können wir das durchaus auf einem 8-Bit Monitor betrachten, aber eben nur 8-Bit zur Zeit (die zusammenhängend sind).

    Wollen wir uns die ganz dunklen Stellen ansehen, können wir einfach das 32-Bit Bild stark aufhellen (maximal um 24-Bit) und somit die unteren 8-Bit in den sichtbaren Bereich rücken (Im RAW Modul findet ihr sowas oben rechts: Helligkeit der Anzeige).


    Ich glaube was hier gemeint ist, dass man die Unterschiede eines 22-Bit Bildes (zum Beispiel durch stacken von 64x 16-Bit Bildern -> 64x = 6 zusätzliche Bit) nach der Bearbeitung deutlich besser erkennt, weil man aus einem 22-Bit genauen Bild sehr viel mehr Details herausarbeiten kann, als aus einem 16-Bit Bild.

    Direkt "sehen" auf einem 8-Bit Monitor kann man das vor der Bearbeitung nicht, aber nach einer sehr feinen Astro-Bearbeitung - man sieht es dadurch, dass die Übergänge auch in schwachen Regionen immer noch gleichmäßig und ohne Tonwertabrisse sind.


    Die Astrobearbeitung ist hier die oberste Spitze der Bildbearbeitung und holt Details (ganze Nebel) aus Helligkeitsdifferenzen heraus, die in einem JPG Bild und auch in einem einzelnen RAW überhaupt nicht herauszuarbeiten wären :-)


    VG Michael

  • Wenn wir mal ein 32-Bit Bild annehmen, können wir das durchaus auf einem 8-Bit Monitor betrachten, aber eben nur 8-Bit zur Zeit (die zusammenhängend sind).

    Wollen wir uns die ganz dunklen Stellen ansehen, können wir einfach das 32-Bit Bild stark aufhellen (maximal um 24-Bit) und somit die unteren 8-Bit in den sichtbaren Bereich rücken (Im RAW Modul findet ihr sowas oben rechts: Helligkeit der Anzeige).

    Hallo Michael,


    lass' es statt 32bit auch gerne ein 64bit Bild sein. Um das Bild auf einem Monitor anzusehen, wird ein Tonemapping eingesetzt, dass das Bild auf 8bit Farbtiefe reduziert. Unf genauso wie Du in HDRprojects Schatten aufhellen kannst oder an den vielen Parametern auf der "rechten Seite" drehst, kann man auch die Rottöne eines Nebels so herausarbeiten, dass man auf dem Monitor gleichmäßige Verläufe sieht.


    Wenn die 8bit-Darstellung auf dem Monitor gefällt, dann sollte es auch möglich sein, genau diese Darstellung in einer Datei zu speichern. Vielleicht nicht als JPEG mit all seinen Komprimierungen und verlustbehafteter Speicherung. Und wenn man die Datei dann wieder öffnet, dann sollte es genauso aussehen wie vor dem Speichern.


    Gruß

    Jürgen


    P.S.: Kannst Du ein Tonemapping mathematisch beschreiben, z.B. in Form eine Matrize?

  • Hallo Jürgen,

    Michael hat hier eine gute Erklärung gegeben. Allerdings gibt es in der Astrophotographie kein klassisches Tonmapping wie z. B. bei HDR. Wobei die Tonmappingalgorithmen sehr unterschiedlich sein können. Tonmapping bedeutet ein größeres Bit Bild auf ein weniger Bit fähiges Ausgabegerät auf eine bestimmte Wahrnehmung anzupassen. Und genau diese ist doch sehr unterschiedlich.

    Ich versuche es mal so zu erklären. Stell dir ein Gummiband vor, das 1m lang ist. Das Gummiband stellt die Bittiefe deines Bildes für einen Farbkanal da. Es wird auch Monochrom Bilder in der Astrophotographie gemacht. Wenn wir jetzt 8Bit auf dem Gummiband darstellen wollen, müssen wir 256 gleiche Teile anbringen. Wenn jetzt das Gummiband gezogen wird (Tonwertspreizung) sagen wir auf 10m dann werden die Abstände zwischen den Markierungen gleichmäßig größer. Aber sind doch sehr grob. Das würde bei unserem Bild komische Treppenstufen bei einem Helligkeitverlauf ergeben.

    Wenn wir 14bit auf dem Gummiband markieren, dann hätten wir 16384 Unterteilungen. Wenn diese auf 10m gezogen werden, dann sind deutlich mehr Unterteilungen dar und zwar 64 zusätzliche Stufen. Was also 1Stufe bei 8 Bit wäre sind 64 Stufen bei 14 Bit. Bei einem 20 Bit Bild sind es 1.048.576 Stufen . Das sind bei einer Stufe 8Bit 131.072 mehr Unterteilungen. Das bedeutet, ich kann das Gummiband viel weiter auseinander ziehen bis ich große Lücken bekomme. Und genau diese Treppen und Lücken sind die Helligkeitsunterschiede. Ich kann dann z. B. 2mm auf dem Gummiband locker auf 1m ziehen nur mal so als Beispiel und hätte immer noch sehr feine Helligkeitsunterschiede.

    Jetzt ist es allerdings so, dass das "Gummiband" also die Helligkeitsunterschiede nicht im gesamten Bild gezogen werden. Ich nenne das spreizen. Ich suche mir gewisse Stellen heraus und genau diese werden nur extrem gespreizt um aus dem was im Bild nicht zu sehen ist sichtbar zu machen. Bei einem 8 Bit Bild wäre da nicht möglich es wären nicht genug feine Unterteilungen da. 16 Bit reichen da auch nicht aus. Deshalb sind 20bit und mehr einfach deutlich besser. Und genau das ist es was ganz oben beschrieben wurde mit mehr Bit können viel feinere Belichtungsunterschiede heraus gearbeitet werden.

    Wenn jetzt gespeichert wird, dann werden diese feine Unterschiede natürlich wieder etwas weg gemacht. Aus 131.072 werden nur noch 256 und bei 8 Bit 1 also wird das Bild deutlich schlechter. Und genau da sieht man in den Verläufen der feinen Nebel. Die Kunst liegt jetzt so, einen Kompromiss zu finden, dass 16 Bit immer noch gut aussehen. Das bedeutet halt, dass das Bild gespeichert wird dann angesehen wird und nachgearbeitet wird bis das gespeicherte Bild einigermaßen an die Helligkeitsunterschiede angepasst wird.

    Ähnlich einem Komprimierungsverfahren achte ich darauf, was das Auge nicht so unterscheiden kann einfach beim späteren Bild in einem Optimalen Übergang auszublenden. Deshalb ist eine gute Bearbeitung eines Astrobildes extrem zeitaufwendig. Meistens habe ich zwischen 100 - 200h an einem Bild über mehrere tage daran gearbeitet biss es die gewünschte Wirkung hat.

    Hier mal ein Beispiel.

    14 Bit original Einzelbild aus der Kamera als RAW gespeichert. (Bild 1)


    Vergrößerung (Bild 2)


    Hier das 16 Bit Bild nach dem Stacking auf 21Bit und dem extremen Spreizen. (Bild 3)


    Und hier die Vergrößerung. Die Markierten Bereiche zeigen sehr feine Übergänge. Diese wären niemals aus dem 14 Bit Bild heraus zu arbeiten. (Bild 4)



    Genauso die scheinbare Überbelichtung im Bild 2. Mit mehr Bit kann diese viel feiner differenziert werden auch wenn es der Monitor nicht darstellen kann.

    Wenn ich diese Bild für einen Posterabzug ins Labor gebe sehen 8 Bit sehr schlecht aus. Von daher suche ich mir spezielle Labore die Astrobilder mit hohen Bit belichten können. Diese Bilder sehen dann überwältigend aus, was auf Handy oder Monitor niemals durchkommt. Und genau das meine ich wenn ich sage es sieht schlecht aus ;-)

    HG Markus

  • Hallo Jürgen,

    lass' es statt 32bit auch gerne ein 64bit Bild sein. Um das Bild auf einem Monitor anzusehen, wird ein Tonemapping eingesetzt, dass das Bild auf 8bit Farbtiefe reduziert. Unf genauso wie Du in HDRprojects Schatten aufhellen kannst oder an den vielen Parametern auf der "rechten Seite" drehst, kann man auch die Rottöne eines Nebels so herausarbeiten, dass man auf dem Monitor gleichmäßige Verläufe sieht.


    Wenn die 8bit-Darstellung auf dem Monitor gefällt, dann sollte es auch möglich sein, genau diese Darstellung in einer Datei zu speichern. Vielleicht nicht als JPEG mit all seinen Komprimierungen und verlustbehafteter Speicherung. Und wenn man die Datei dann wieder öffnet, dann sollte es genauso aussehen wie vor dem Speichern.

    Es ging mir nicht darum ein fertiges Bild mit irgendeiner Kompression zu erstellen sondern darum, bestimmte Bereiche einer 32-Bit Spanne während der Bearbeitung sichtbar zu machen, um eben aus diesen Bereichen möglichst alles herauszuholen und die Tonwert möglichst optimal aus diesem Helligkeitsbereich heraus aufzuspreizen.


    Markus hat das oben gut mit Bildern untermalt und gut beschrieben, warum man das in der Astro Fotografie so macht - und Markus versteht da mehr von als ich, deswegen beleuchte ich es nur aus der Zahlensicht :-)


    Ich versuche ein Zahlenbeispiel:

    Nehmen wir ein 20-Bit Astro-Bild -> 2 hoch 20 = 1.048.576 Helligkeiten

    Unser Bild hat nun folgende Helligkeiten (sehr stark vereinfacht)

    - einen Astro-Nebel mit Helligkeiten von 470.000 bis 590.000

    - Helle Sterne mit Helligkeiten von 950.000 bis 1.048.575


    Auf meinem 8 oder 10-Bit Bildschirm sehe ich dann etwa das:

    (ein ziemlich schwer zu bearbeitendes Bild, weil ich die Strukturen nicht sehen kann)


    Nun verändere ich die Darstellung der Helligkeiten auf dem Bildschirm so, dass ich primär die Helligkeiten von 470.000 bis 590.000 in meinen auf dem Bildschirm sichtbaren Bereich auseinanderziehe:

    (Also 470.000 bis 590.000 werden auf 0 bis 255 aufgestreckt.)


    Hat mein Bild eine hohe Genauigkeit, kann ich das tun, ohne dass Tonwertabrisse im 16-Bit entstehen, ich kann also "nicht destruktiv" diese Veränderung auf mein Bild anwenden (und nicht nur auf die Darstellung), weil mein Bild eine höhere numerische Genauigkeit hat, als mein gewünschte 16-Bit oder 8-Bit Ergebnis.



    Also nicht direkt Tonmapping auf das ganze Bild, sondern das unterschiedliche Aufspreizen bestimmter Helligkeitsbereiche auf neue (besser sichtbare) Helligkeitsbereich im finalen Bild.



    P.S.: Kannst Du ein Tonemapping mathematisch beschreiben, z.B. in Form eine Matrize?

    Ich versuche erst einmal eine Umschreibung für ein Tonemapping - dabei muss man zwei grundsätzlich verschiedene Methoden unterscheiden:


    (a) globale Tonemapping Operatoren

    (b) lokalte Tonemapping Operatoren


    Wer eine Übersicht über die bekanntesten möchte kann hier nachschauen: https://de.wikipedia.org/wiki/Tone_Mapping und hier gibt es eine Diplomarbeit zu dem Thema https://kola.opus.hbz-nrw.de/o…d/359/file/sa_allangs.pdf


    Globales Tonemapping - nehmen wir einmal den einfachsten Operator:

    -> suche den hellsten Punkt im Bild Lmax

    -> teile die Helligkeit jedes Pixels durch Lmax, also Lpixel_neu = Lpixel_alt / Lmax

    Was hier passiert ist, dass der Weißpunkt des Bildes automatisch auf das mögliche Maximum gesetzt wird - natürlich ist das nur eine Grundlage.


    Lokales Tonemapping

    -> hier wird die Umgebung jedes Pixels nach bestimmten Eigenschaften durchsucht - also zum Beispiel Lmin, Lmax, Ldurchschnitt.

    -> diese Werte werden dann mit dem aktuellen Pixel verrechnet - meist wird hier ein Gleichungssystem gelöst, welche die Helligkeiten einer Umgebung nach einer bestimmte Regel (der Algorithmus) neu verteilt



    Eine "Matrix" kann ich hier nicht angeben, da es nicht einfach nur eine Matrix-Operation ist, sondern in den meisten guten Tonemapping Methoden doch noch deutlich komplizierter ist.

    HDR projects verwendet hierbei lokale Tonemappings mit bilateraler Filterung (Halo Reduzierung) mit unterschiedliche mathematischen Funktionen (Log, Exp, Sigmoid, usw.)



    Irgendwie sind wir irgendwo vom Weg abgekommen - Worum gibt es ursprünglich in diesem Thread? ;-)


    VG Michael

  • Hei :)


    So - ich hatte bei meinem PC alle Peripherie und Karten abgeklemmt - keine Änderung. Einen Riegel Arbeitsspeicher rausgenommen - aha, Mainboard meldet sich mit 3 langen Signaltönen: Arbeitsspeicher kaputt. Beim anderen Riegel genauso.


    Normalerweise hätte ich nun Arbeitsspeicher gekauft - hatte aber die Intuition - zum Glück - den PC zur Reperatur zu geben. Dort kostete eine Fehleranalyse 20 Euronen. Und: es war das Netzteil, zwei Kondensatoren durchgeknallt. Darauf wäre ich nie gekommen, da ja Lüfter und LED Zirkusbeleuchtung :) noch funktionierten.


    Alles andere war in Ordnung, auch die Arbeitsspeicher. Da hätte ich ja fast bestellt und immer noch nix erreicht!


    Morgen lasse ich noch eine SSD für Betriebssystem und die Arbeits-Programme einbauen - mal gespannt.


    Dann lese ich hier mal. Allerdings schonmal kurz:


    Bei den X Processoren handelt es sich um APS-C x Trans CMOS Sensoren.


    - Diese haben bei den RGB Farbfiltern des Sensors keine Bayer Matrix, sondern eine etwas exotische X-Trans Farbfilteranordnung. Das soll Moire verhindern, und man braucht keinen Tiefpassfilter.


    - ISOloser Sensor heißt, dass es "keinen relevanten Qualitätsunterschied zwischen der konventionellen Signqalverstärkung vor dem Schreiben einer RAW Datei und der rein digitalen Verstärkung während der RAW Konvertierung gibt. Das ist toll, denn dadurch können Sie die ISO-Verstärkung (also die Helligkeit bzw. Belichtung) Ihrer Aufnahme bei der RAW Entwicklung digital erhöhen." (Pfirstinger, Fuji X Secrets)


    "Wenn Sie zum Beispiel den Belichtungsregler bei einer mit ISO 200, f/5.6 und 1/60s gemachten Aufnahme um drei Blenden nach rechts bewegen, wird das Ergebnis nicht viel anders aussehen als bei einer unkorrigierten Aufnahme mit ISO 1600, f/5.6 und 1/60s." Mit Beispielfotos.


    Darauf wollte ich hinaus, denn dann erhöht man bei Belichtungsanhebung in der Bildbearbeitung praktisch die ISO an der Stelle der Anhebung. Daher mein Vorschlag, z.B. bei größerer Tiefenanhebung usw. Denoise NACH der Anhebung der Belichtung einsetzen, solche Anhebungen also schon in der RAW Konvertierung durchzuführen.


    - Michael hatte mal gesagt, so ich mich hoffentlich richtig erinnere, zuerst käme bei ISO Erhöhung Farbrauschen, dann Luminanzrauschen. Bei mir kommt aber zuerst bei Iso Erhöhung Luminanzrauschen, dann erst später, bei über ISO 6000 irgendwann das Farbrauschen. Das steht so in den Tests - und ich erfahre das praktisch auch so. Warum das so ist, und das Luminanzrauschen auch von Testern oft als "gutmütig" bewertet wird, weiß ich nicht. Algorithmen vor der RAW Ausgabe? :)


    - Natürlich gibt es Rauschen. Unter normalen Umständen, bei normalem Licht und der ISO 200, habe ich da aber beim Reinzoomen nix mehr finden können und konnte ohne große Rauschreduzierung auskommen - ganz im Gegensatz zur früheren Kamera, wo ich immer auch massiv mit Farbrauschen zu tun hatte. Das kommt jetzt erst "irgendwann".


    - Denoise brauchte ich dann wieder bei ISO Erhöhungen wegen Belichtungszeit z.B., oder bei stärkerer Anhebung der Tiefen und höherer Iso. Hier hat mir das neue Denoise sehr gut gefallen!!!


    - Das Farbrauschen bei Denoise braucht man in den allermeisten Fällen nicht - man sollte es aber prinzipiell für extremere Situationen haben. Denn irgendwann kommt es dann doch.


    - Für Fuji habe ich mich damals entschieden, weil ich z.B. bei Bergketten im dunstigen Hintergrund noch eine tolle Tiefenstaffelung gesehen habe, und teilweise noch jeden Baum unterscheiden konnte, wo bei früherer Kamera nur noch ein dunstiges Einerlei war. Das hatte mich beeindruckt.


    Soweit erstmal zum Post - dann werde ich mich mal einlesen, wenn der PC mit SSD wieder da ist! Interessant!


    grüssli merlYnn

  • Hallo Markus,

    hallo Michael,


    mir ist durchaus klar, dass man nach einer Reduzierung auf 16bit oder gar 8bit das Bild nicht mehr so bearbeiten kann (bestimmte Bereiche spreizen), wie beim ursprünglichlichen 32/64bit Bild.


    Aber irgendwie reden wir 3 aneinander vorbei???


    Die Aussage, die ich hinterfragt hatte, war die, dass Markus die schlechtere Darstellung nach Speichern als 16 bzw. 8bit beklagt hatte.


    Nur sieht Markus beim Spreizen bestimmter Bereiche in PixInsight lediglich eine 8bit Darstellung des Bilde, weil sein Monitor nicht mehr kann. Und wenn Du Markus mit dem Ergebnis Deiner Bildbearbeitung zufrieden bist, dann sollte es doch möglich sein, die 8bit-Darstellung auf dem Monitor so zu speichern, dass Du auch nach dem erneuetn Öffnen damit zufrieden bist?


    Wenn beim Wandeln des 64bit-Bildes in ein 16bit TIFF, dieses TIFF nach dem Öffnen schlechter aussieht, dann muss eine andere Umwandlung erfolgt sein, als die zuvor beim Betrachten auf dem Monitor.


    Gruß

    Jürgen

  • Michael hatte mal gesagt, so ich mich hoffentlich richtig erinnere, zuerst käme bei ISO Erhöhung Farbrauschen, dann Luminanzrauschen. Bei mir kommt aber zuerst bei Iso Erhöhung Luminanzrauschen, dann erst später, bei über ISO 6000 irgendwann das Farbrauschen.

    Hallo,


    bei meinen Kameras der letzten Jahre war es immer so, dass zuerst Helligkeitsrauschen als feine Pünktchen zu sehen war und bei höherer ISO diese Pünktchen dann bunt wurden.


    Die Zeiten, dass es Farbwolken gibt, die ungleichmäßig im Bild verteilt sind, ist glücklicherweise vorbei. Das findet man nur noch in billigen Actioncams.


    Helligkeitsrauschen empfinde ich ebenfalls nicht so als störend wie Farbrauschen. Wobei es da Unterschiede gibt. Das Helligkeitsrauschen mancher Kamera würde ich "abgerundete Kiesel" beschrieben, bei anderen als "scharfkantiger Split".


    Gruß

    Jürgen

  • Hallo Jürgen,

    Aber irgendwie reden wir 3 aneinander vorbei???

    Ja, ich glaube wir haben uns bei diesem Thema irgendwie voneinander entfernt...

    Schlussendlich wissen wir alle drei, was geht und was nicht geht und schauen nur aus einem leicht unterschiedlichen Winkel darauf :-)


    Von meiner Seite aus würde ich das jetzt einfach mal so stehen lassen, weil wir sonst vermutlich noch weiter "abdriften"


    VG Michael

  • So - PC wieder klar, es war auch noch die Festplatte defekt - also alles neu aufspielen :(


    Denoise 4 von Franzis verlangt nach Neuinstallation eine Aktivierung mit Seriennummer. Gebe ich diese ein, kommt die Meldung: die Seriennummer sei schon aktiviert, zweimal aktivieren geht nicht. Ignoriere ich das, kann ich nur mit Wasserzeichen speichern. Kann man da irgendwas machen? Alle anderen Projects Programme machten keine Schwierigkeit.


    grüssli merlYnn

  • Hallo merlYnn,

    Denoise 4 von Franzis verlangt nach Neuinstallation eine Aktivierung mit Seriennummer. Gebe ich diese ein, kommt die Meldung: die Seriennummer sei schon aktiviert, zweimal aktivieren geht nicht. Ignoriere ich das, kann ich nur mit Wasserzeichen speichern. Kann man da irgendwas machen? Alle anderen Projects Programme machten keine Schwierigkeit.

    jede Seriennummer der projects Programme ist 2x aktivierbar (das entspricht dem üblichen EU Recht).

    Nach 2 Aktivierung einer Seriennummer kannst du dich an den Support von Franzis wenden, um deine Nummer "zurücksetzen" zu lassen.


    Oder du schickst mir eine Email an piepgras@independent-arts-software.de mit deiner Seriennummer und dem Produkt um das es geht und ich kann Dir eine neue zukommen lassen - das ist der "kurze Dienstweg" ;-)


    VG Michael