Fujifilms "ISO lose Sensoren" und Denoise Projects

Im Rahmen der neuen Europäischen Datenschutzbestimmungen, haben auch wir unsere Datenschutzrichtlinie mit Wirkung zum 25. Mai 2018 für alle Besucher, Nutzer unserer Website aktualisiert. http://projectsforum.de/neu/index.php?datenschutzerklaerung/ Die Änderungen umfassen eine genauere Aufklärung darüber, wie wir deine Daten verwenden, einschließlich deiner Auswahl- und Kontrollmöglichkeiten und deiner Rechte. Ab dem Stichtag unterliegt deine weitere Nutzung unseres Forums der neuen Datenschutzrichtlinie. Hast du Fragen dazu? Rufe uns einfach an unter 06461/989877, oder schreibe uns eine Nachricht an stefan@stefan-runkel-online.de Herzliche Grüße! Dein Projectsforum-Team
  • Die Kamerasensoren von Fujifilm Kameras sind sogenannte ISO lose Sensoren. Bei Erhöhung des ISO Wertes wird also nicht die Empfindlichkeit des Sensors durch Spannung o,ä. verstärkt - es wird lediglich dem RAW Konverter die Information bei gegeben, er möge doch entsprechend der ISO Erhöhung das Bild jetzt stärker belichten.


    Ob ich also ein Bild mit ISO 800 aufnehme, oder mit ISO 200 und das Bild dann im RAW Konverter um 2 EV erhöhe - das ergibt tatsächlich identische Bilder, mit gleichem Rauschverhalten und allem!


    (kleinere Ausnahme: neuere Sensoren mit Dual Conversion Gain verbessern ab ISO 800 das Rauschverhalten des Sensors um 1/3 EV, da wird der Sensor dann für schlechte Lichtverhältnisse umgeschaltet - aber lassen wir das hier mal aussen vor).


    ISO lose Sensoren - das hat Konsequenzen für die Bildbearbeitung, finde ich:


    Hat man sein Bild, wie so üblich, korrekt auf die Lichter belichtet, und die Schatten nicht so beachtet, weil man diese ja leichter im Post Processing pushen kann, als ausgefressene Lichter zu handhaben: ja, was bedeutet denn jetzt eine nachträgliche Anhebung der Tiefen? Es bedeutet für Bilder von Fuji Kameras, dass in den Schatten jetzt sozusagen höhere ISO Werte sind als im Rest des Bildes, und das kann unter Umständen so einiges an Unterschied sein.


    Daher würde ich empfehlen, die Behandlung der Tonwerte und Anhebung der Tiefen, zumindest grob, schon VOR Denoise im RAW Konverter vorzunehmen - und danach erst schauen, was Denoise Projects jetzt so zu dem Bild meint. Eventuell kann man ja im Expertenmodus bei den an den Rauschfiltern angehängten Luminanzmasken die Schatten etwas mehr betonen, als die Lichter.


    _________________________________________________________________________________________________________________________________________________________________


    Mit Fuji Kameras kommt zuerst Luminanzrauschen, dann irgendwann viel später Farbrauschen. Das ist ja normalerweise nicht so, ob das nun an der besonderen Struktur der X-TRans Sensoren liegt - diese haben eine andere RGB Matrix als die Bayer Sensoren - oder ob Fujifilm da intern was rechnet - alle Tester sagen das, ich habe es selber so gesehen, und man kann auf Norddeutsch eigentlich nur sagen: IS SO!


    Für Denoise heißt das: man kann meistens alle Farbrauschen Filter im Experten Modus getrost für seine Fuji Bilder abschalten - das aber dennoch kontrollieren. In den meisten Fällen ist da einfach nix - allerdings kommt ja auch bei Fujifilm irgendwann mal das Farbrauschen, und wenn man vorher kräftig die Tiefen angehoben hat, weiß man eigentlich nicht mehr, mit welchen ISO Werten man da unterwegs ist - siehe oben. Aber wie gesagt, meistens ist da grünes Licht.


    Also: ich habe meist alle Filter bis auf Chrominanz HD im Expertenmodus abgeschaltet. Diesen Filter stelle ich dann moderat ein. Dann schalte ich den Filter "Lücken auffüllen" an, wenn ich bei äußerster Vergrößerung im Bild kleine rechteckige oder L förmige Artefakte finde, schwarz oder weiß: und das ist meistens so! Nun schalte ich die Iterationen auf 1, und finde bei "Grenzwert" ganz genau den Wert, der ALLE!!! diese Artefakte im Bild abschaltet. Wenn die meisten Artefakte im Bild eliminiert sind, suche ich weiter und finde meist noch irgendwas. Dann verändere ich den Grenzwert im Einserbereich, bis ich den Wert gefunden habe, der wirklich ALLES im Bild an diesen kleinen, aber scharf umrissenen Artefakten, eliminiert. Die Iterationen brauche ich dabei nicht mehr, wenn der Grenzwert ganz genau stimmt.


    Ob man diesen GENAUEN Wert auch automatisch ermitteln kann? "Lücken auffüllen" wird ja selten verwendet, was ich nicht verstehe. Wenn man den genauen Grenzwert gefunden hat, dann bringt das schon so einiges, und ich brauche weniger Bearbeitung von den anderen Luminanz-Filtern. Hier würde ich doch lieber den ganz speziellen Filter nehmen, als diese vielen kleinen Lücken auch noch mit Chrominanz HD zu bearbeiten.


    Danach halbiere ich meinen Schärfe-Wert bei Chrominanz HD und stelle die Qualität auf Maximum, also 10. Jetzt wirds mit der Rechenzeit etwas langwierig, wenn ich die Schärfe bei Chrominanz HD nachstellen muss. Aber das ist so mein Fuji - Workflow.


    _________________________________________________________________________________________________________________________________________________________________


    Fuji Kameras haben lange kein Farbrauschen, und das Luminanzrauschen soll "gutartig" sein, also einer Film Körnung entsprechen.


    Tatsächlich sind die Bilder aus der Kamera so scharf, dass man nur wenig nachschärfen muss, so man nicht gewackelt hat - und bei den nativem ISO 200 ist oft gar kein Rauschen da - so dass ich lange Zeit dachte, ich brauche Denoise gar nicht mehr. Mit meiner Nikon Einsteigerkamera waren das noch ganz andere Zeiten, aumannhey! Und dabei ist meine Fuji X-H1 inzwischen ja auch schon alter Toback! (Wobei: beim Rauschen sollen die alten 24 Megapixel Sensoren sogar einen kleinen Tacken besser sein, als der neue 26 Megapixel Sensor, da hab ich also noch keinen Grund, mich zu beklagen!)


    Das mit "Denoise brauch ich nicht" hatte sich dann doch geändert, als ich bei Macro Aufnahmen die ISO hochgestellt habe, um wegen Windbewegungen auf extrem kurze Verschlusszeiten zu kommen. Musste ich dann noch Tiefen aufhellen, war dann schon wieder Rauschen da, welches behandelt werden sollte, und zwar nicht mehr homöopatisch im RAW Konverter. Dann habe ich mir doch Denoise 4 professional geholt - und konnte den großen Sprung zur Vorversion genießen :) .


    Als ich noch ohne Entrauschen meine Fujifilm Bilder entwickelte, fragte mich meine Schwester, die Malerin ist, einmal, ob ich da Pointillismus im Sinne gehabt hätte: sie hätte das Gefühl, sie könnte jeden Pixel einzeln sehen. Das mag gewollt sein, ein interessanter Effekt - aber bestimmt nicht immer. Vielleicht war hier auch schon Luminanzrauschen nach Sharpen Projects 3 im Spiel gewesen.


    Bildgestalterisch kann ich mir vorstellen, dass Denoise feinere Farb- und Luminanzübergänge kreieren kann, das muss ich mal bei Bildern beobachten, wo ich früher meinte, ich brauche keine Entrauschung mehr. Die Tonwerte-Farb Übergänge haben sich wohl bei Denoise in der neuen Version, im Zusammenhang mit dem neuen Sharpen Projects, ebenfalls verbessert, wie mir erste Bilder zeigen.


    (Nebenbei - ich habe gerade ein Video gesehen, wo ein Fotograf glaubhaft an Bildern demonstrieren konnte, dass er mit einer 32 bit Bildbearbeitung am Ende viel feinere Übergänge und Farb-Tonwert-Nuancen herauskriegt, als mit einer 16 bit Tiefe Bearbeitung. Dazu müsste er aber immer 3 Bilder aufnehmen und in Photoshop in den HDR Modus gehen. - Vielleicht sollte man ihm mal sagen, dass HDR Projects auch bei einem einzigen Bild mit 32 bit arbeiten kann :) :) )


    soweit erstmal zu den Besonderheiten bei Fujifilm Kameras. Veilleicht trifft ja das eine oder andere ja auch für andere Marken zu!


    grüssli merlYnn

  • Hallo merlYnn,

    (Nebenbei - ich habe gerade ein Video gesehen, wo ein Fotograf glaubhaft an Bildern demonstrieren konnte, dass er mit einer 32 bit Bildbearbeitung am Ende viel feinere Übergänge und Farb-Tonwert-Nuancen herauskriegt, als mit einer 16 bit Tiefe Bearbeitung. Dazu müsste er aber immer 3 Bilder aufnehmen und in Photoshop in den HDR Modus gehen. - Vielleicht sollte man ihm mal sagen, dass HDR Projects auch bei einem einzigen Bild mit 32 bit arbeiten kann :) :) )

    Eine höhere Bit-Genauigkeit kommt Tonwertabrissen und ähnlichen Effekten immer zu Gute - mehr Genauigkeit erlaubt hier mit mehr nacheinander angewandten Filter ohne sichtbare Verluste zu arbeiten-


    Wenn man allerdings in 16-Bit Bildern genau arbeitet, könnte man auch mit 16-Bit Bearbeitung niemals einen Tonwertabriss mit dem Auge erkennen, weil die meisten Monitor maximal 10Bit Genauigkeit überhaupt darstellen können - 16Bit ist dabei 64x genauer als 10Bit.



    Zu dem Thema "Fuji Sensoren" kann ich nichts qualifiziertes sagen, deswegen halte ich mich da vornehm zurück ;-)


    VG Michael

  • Hallo merlYnn,

    kannst du mir mitteilen, was die Fuji Sensoren für eine Siliziumtechnik haben? Die bekannteste unter den Sensoren ist ja CMOS und CCD.

    Ich kenn bis jetzt keinen Sensor der kein Rauschen hat. Meistens wird das Rauschen des Sensors im DIGI Prozessor gemindert. Da ist der Prozessor der Kamera genau darauf abgestimmt. Leider muss ich feststellen, dass die neuen Kameras der Hersteller verdammt teuer geworden sind. Und das mit so schlechten Sensoren die jenseits kleiner von 3 Mikrometer Pixelgröße sind. Ich kenne sehr viele Sensoren durch die Astrofotografie und deren Auswirkung ohne speziellen Kameraprozessor. Egal ob Kodak, Sony oder Canon, sind alle gleich gut bzw. schlecht ohne die "Kameraentrauschung". Wichtig ist vor allem die Qantum effizienz je höher diese ist um so besser und das über einen Breiten Lichtwellenbereich. Von daher finde ich deine Beschreibung zum Fuji Sensor sehr außergewöhnlich und kann mir dass so nicht vorstellen. Ausser wie du schreibst gibt s eine neue Siliziumtechnik. Was mir bis jetzt noch nicht bekannt ist.

    Wichtig ist auch die spezielle Abstimmung Objektiv zu Sensor, das macht am meisten aus vor allem wenn es um Details geht.

    Ja wie du schreibst sind Bilder mit hoher Bit-Zahl anders als niedrig Bit Bilder zu bearbeiten und anzusehen. Das kann ich bestätigen.

    Bei Astrobildern arbeite ich mit bis zu 22 Bit pro Farbkanal (14 Bit Kamerasensor + 7-9 Bit durch Stacking). Das sieht bei der Bearbeitung sehr gut aus, und vor allem kann ich sehr gut die Farbabstände "spreizen" da ich mehr als genug Bit habe. Was sehr wichtig ist um bei Astrobildern auch die feinsten Lichtunterschiede sichtbar zu machen. Das gibt super feine weiche Abstufungen und beste Details. Wenn dann das Bild fertig ist und ich es in 16 Bit speichere - tränen einem schon die Augen was da verloren geht . Bei Jpeg willst nur noch sterben :-)

    HG Markus

  • Hi,
    gleiche Problem hatte ich vor ner Stunde,

    Habe mal alle Peripherie abgemacht und alle Festplatten bis auf Laufwerk C abgestöpselt. Dann ist der PC wieder hoch gefahren bids zum Bios. Bios geschaut dass es passt - save und reboot. Jetzt ist PC wieder mit Windows komplett gestartet. Dann wieder Platte für Platte angehängt. Dadurch hat Windows Zeit gehabt diese zu prüfen und Fehler zu korrigieren. Dadurch hatte ich das System wieder zum laufen gebracht.

    Versuche es mal ob es bei dir auch funktioniert.

    Wäre schön wenn du mir dann wenn's läuft etwas über den Fuji Sensor erzählen könntest.

    HG Markus

  • Ich habe es mal in Google eingegeben: https://fuji-x-secrets.net/201…mit-der-fujifilm-x-serie/


    Das betrifft nach der Erläuterung fast jede Digitalkamera. Wenn man eine höhere ISO einstellt, wird die Spannung zur Signalverstärkung erhöht. Bei meiner Kamera wirkt sich das aber direkt auf das RAW aus, wäre ja sonst nach paar Lichtstärken Schluss im Dunklen mit kurzen Belichtungszeiten. Im Museum schieße ich immer lautlose ISO 800 aus der Hand und staple dann bis zu 16 RAW in KANDAO RAW+, damit das erste das Master für bewegte Objekte bei der Entrauschung ist. Geisterbilder gibt's nicht und zu stark verwackelt ist dann halt etwas schlechter stapelentrauscht. Zumindest stellt der Verfasser des Textes fest, dass er die Belichtungszeit verlängern müsste (also bei ISO 200 bleibt). Fuji muss doch auch kurze Belichtungszeiten im Dunklen zulassen und das RAW kann dann doch nicht im Schwarz absaufen, also nach Signalverstärkung gespeichert werden :/.

  • Hallo Hübi,
    danke für die Info. Wenn ich das so verfolge vom Text, dann ist das nicht so einfach wie geschrieben. Auf die Idee der Nachbelichtung im nachhinein bin ich schon seit Jahren drauf gekommen und habe das ausprobiert. Das hat nicht funktioniert: Und zwar waren die Bilder deutlich dunkler als wenn die Iso in der Kamera hoch gestellt wird. Ist ja auch irgend wie klar. Es wird ja der Sensor mit einer anderen Gatespannung belegt, um die wenigen Elektronen besser einzufangen. Deshalb auch das höhere Rauschen. Das einzige bessere was ich kenne ist die umgekehrte Belichtung eines Sensors, um die Quantum sensivität zu erhöhen. Das funktioniert sehr gut. Verschiedene Hersteller wie z. B. Sony benutzen dieses System. Damit kann man wmit gleicher Iso in dunklerer Umgebung fotografieren.

    Das mit den "Iso losen Sensoren" hört sich mir eher nach einem autom. Stacking an, was die Kamera macht. Das ist seit gut 3 Jahren so der Hit. Anders kann ich mir das nicht vorstellen vor allem technisch nicht.

    Ich glaube da macht eher wieder eine ausgeklügelte Software den Job und es wird halt "Heldenhaft" angepriesen und vermarktet.

    HG Markus

  • Hallo Zusammen,


    ich habe mir jetzt einmal ein paar Artikel dazu durchgelesen und verstehe nicht, wie diese Technologie das Rauschen tatsächlich reduzieren soll.


    Dazu habe ich mir überlegt, wie statistisches Rauschen überhaupt entsteht - schlussendlich ist statistisches Rauschen nichts weiter als eine Mess"ungenauigkeit".

    -> Nehmen wir einmal drei Pixel nebeneinander auf einem Foto, die eine mittelgraue Farbe in der Realität haben (alle den gleichen Wert von sagen wir 128,128,128)

    -> bei geringem Licht treffen nicht sehr viele Photonen auf unsere drei Pixel des Sensors


    Wir machen eine kurze Belichtung, damit wir bei schlechtem Licht nicht verwackeln und messen nun die Anzahl der Photonen pro Zeiteinheit, die auf unsere 3 Beispielpixel fallen:

    -> Messung: [119] [133] [122] - man sieht hier eine Schwankung (statistisches Rauschen) um den "Soll"wert von 128.


    Wenn man nun mit "mehr" ISO, also stärkerer Lichtempfindlichkeit eine Messung macht, reduziert man die Zeiteinheit in der die Photonen gemessen werden.

    In der Folge werden die Schwankungen (durch einfach Statistik) größer und damit das statistisches Rauschen stärker -> das ist ein physikalisches Grundgesetz, dass wir nicht umgehen können.


    Ob ein Sensor einen ISO Wert hat oder nicht spielt dabei eigentlich keine Rolle.

    Möchte man das statistisches Rauschen reduzieren, muss man mehr Photonen einfangen (messen) und das geht mir zwei Möglichkeiten:

    (a) mehr Licht in der Szene (also sind mehr Photonen unterwegs)

    (b) länger Belichten, damit die Schwankung der Werte um den realen Wert pro Pixel geringer wird ( Gesetz der großen Zahlen: https://de.wikipedia.org/wiki/Gesetz_der_gro%C3%9Fen_Zahlen )



    Den Artikel ISOlos fotografieren mit der Fujifilm X-Serie « Fuji X Secrets (fuji-x-secrets.net) habe ich mir auch durchgelesen und finde dort hauptsächlich Hinweise auf eine "geheime Umrechnung und Nachbelichtung".

    Die Resultate sehen gut aus, keine Frage - leider sehen wir es nicht in voller Auflösung und zum Beispiel der Screenshot bildschirmfoto-2014-08-18-um-15-57-47.png (2776×754) (wordpress.com) in dem Artikel zeigt uns eine Lightroom Bearbeitung bei reduzierter Auflösung, die man auch mit einem guten RAW Bild aus einer Spiegelreflex hinbekommt.

    (Durch die reduzierte Auflösung des Screenshots wird das Rauschen erheblich reduziert)


    Ich bleibe hier skeptisch und denke da noch ein wenig drüber nach :-)


    VG Michael

  • Hallo,

    wie Michael es gerade sehr gut erklärt kenne ich es auch nur. Was auch noch einen positiven Effekt hat sind große Sensorpixel. In der Astronomie sind 6-9 Mikrometer ideal. Das kommt wiederum der Qantumseffizenz sehr entgegen was wiederum mehr Elektronen mit gleicher Belichtungszeit einfängt. Im Vergleich haben die älteren Vollformat Sensoren so um die 6,5 Mikrometer gegenüber den heutigen APS-C Sensoren mit weniger als 3 Mikrometer. Damit ist die Fläche mehr als 4x so groß bei den älteren Vollformat Sensoren und damit 4x Lichtempfindlicher. Das bedeutet weniger Rauschen weil es mehr als 1 EV Stufe besser ist und damit bei gleicher Belichtungszeit die ISO herunter gesetzt werden. Wie Michael es ausführt ist technisch "kein Rauschen" nicht möglich. Das geben unsere Werkstoffe und die dazu gehörenden Toleranzen nicht her. Das einzige was geschafft wird ist eine Reduktion des Rauschens.

    Ich bin auch mal gespannt und werde es weiter verfolgen.


    HG Markus

  • Ich hoffe es hat nicht das Mainboard erwischt, da dieses eigentlich per Tonsignal anzeigen sollte, was nicht stimmt. (Prozessor, Ram, Grafikkarte, ...)

    Vorausgesetzt, man hat einen Lautsprecher usw. am Mainboard angeschlossen. Gehört nicht mehr zum Lieferumfang. Wenn mein Mainoard 3mal piepst, dann soll der Speicher defekt sein. Tasächlich war es die Grafikkarte. Selbst so eine Beschreibung bekommen die Hersteller heutzutage nicht mehr korrekt hin.


    Gruß

    Jürgen

  • Nein Michael.

    Dein "Rauschen" als eine ungleichmäßige Belichtung von 3 benachbarten Pixeln ist nur ein Anteil.


    Rauschen entsteht u.a. durch die Brownsche Molekularbewegung. Jeder simple Widerstand rauscht. Nur bei 0 K am absoluten Nullpunkt wäre alles rauschfrei.


    Zu diesem thermischen Rauschen kommt bei Halbleitern das Schrotrauschen hinzu. Halbleiter sind dotiert, die Überwindung von Potentialbarrieren führt zu einer leichten Schwankung des Stromflusses.


    Ein Bildsensor hat auch ein Dunkelrauschen, wenn gar keine Photonen auf ihn treffen.



    Gruß

    Jürgen

  • Hallo Jürgen,

    Nein Michael.

    Dein "Rauschen" als eine ungleichmäßige Belichtung von 3 benachbarten Pixeln ist nur ein Anteil.

    Rauschen entsteht u.a. durch die Brownsche Molekularbewegung. Jeder simple Widerstand rauscht. Nur bei 0 K am absoluten Nullpunkt wäre alles rauschfrei.

    Zu diesem thermischen Rauschen kommt bei Halbleitern das Schrotrauschen hinzu. Halbleiter sind dotiert, die Überwindung von Potentialbarrieren führt zu einer leichten Schwankung des Stromflusses.

    Ein Bildsensor hat auch ein Dunkelrauschen, wenn gar keine Photonen auf ihn treffen.

    Ja, du hast natürlich Recht.

    Das Rauschen entsteht aus vielen Effekten die sich überlagern:

    -> elektronisches Rauschen, thermisches Rauschen, statistisches Rauschen, Quanteneffekte?, etc.


    Als Zahlenmensch schaue ich natürlich zuerst auf das "statistische Rauschen" :-)

    (ich habe meinen Beitrag oben korrigiert und das Wort "statistisch" entsprechend eingefügt)

    Bei der Physik habe ich wirklich nur rudimentäres Basiswissen.


    VG Michael

  • Ahh ja genau Jürgen,
    das Dunkelrauchen ist auch ein interessanter Faktor. In der Astrofotografie mache ich dafür extra Korrekturbilder um das Dunkelrauschen zu entfernen. Diese werden bei schnellster Blende was die Kamera kann bei meiner z. B. 1/4000 Sek., ISO 100 und völlig dunklem Objektiv (Deckel drauf oder besser Objektiv ab und den Verschlußdeckel aufsetzen. Ist schon krass was da an Rauchen in so einem Dunkelbild ist.

    HG Markus

  • Wenn dann das Bild fertig ist und ich es in 16 Bit speichere - tränen einem schon die Augen was da verloren geht . Bei Jpeg willst nur noch sterben :-)

    Hallo Markus,


    das kann ich nicht nachvollziehen.

    Wie Michael bereits richtig schrieb, haben heutige Monitore 10bit. Gilt auch für die teuren Eizo ColorEdge. Wie kannst Du eine Farbreduzierung von 22 auf 16 bit sehen, wenn der Monitor das nicht darstellen kann?


    Gruß

    Jürgen

  • Hallo Jürgen,

    probiere es einfach mal selbst aus, dann wirst du es selbst erleben. Ich kann dir nicht sagen was genau passiert, aber es wird deutlich schlechter, vor allem wenn ich dann Bilderabzüge machen lasse. Die Übergänge verlieren einfach an Feinheit und die Farben werden anders. Es entstehen auch so komische Farbflächen in Bereichen wo es sehr feine Übergänge gibt.

    Kann sein, das es am umrechnen liegt von 32bit Bild in 16Bit Bild. Bei einem 8 Bit Bild sieht man es richtig richtig gut wie schlecht es wird.

    HG Markus

  • Hallo Markus,


    vor einigen Jahren hieß es, dass Drucker einen Kontrastumfang von 5 bis 6 Blendenstufen haben. Ob Tintenstrahldrucker mit 6 Tinten und Spezialpapier inzwischen 8 Blenden schaffen, weiß ich nicht. Aber wenn Du Abzüge machen lässt, wundert es mich nicht, dass Du Unterschiede siehst.


    Abstufungen bei Farbverläufen habe ich zuletzt bei 16k Farbumfang gesehen. Wenn Du heutzutage so etwas siehst, dann stimmt wohl etwas anderes nicht?


    Wenn Du schreibst "22 Bit pro Farbkanal (14 Bit Kamerasensor + 7-9 Bit durch Stacking)", dann erstellst Du quasi HDR-Bilder? Verwendest Du eine Astrokamera mit Farbsensor oder arbeitest Du mit einer monochormen Kamera und einem Farbrad?


    In welchem Format speicherst Du Bilder mit den 22bit?

    Und mit welchem Programm betrachtest Du sie?


    Wie erfolgt die Umwandlung in 16 bit? In welchem Format werden die gespeichert und mit welchem Programm betrachtest Du sie?



    Gruß

    Jürgen


    P.S.: Bei meinem letzten LCD-Fernseher hatte ich auch deutliche Abstufungen in Flächen. Als nächstes wurden schwarze Flächen grün und dann wurde er ausgetauscht.

  • Hallo Jürgen,

    ich benutze da ein spezial Programm. Nennt sich PixInsight. Ist speziell für Astrofotografiebearbeitung und Messung. Das System hat kein festes Colorsystem, das bedeutet es rechnet intern immer mit 64bit. Dieses 64Bit Bild kann der Monitor nicht anzeigen im vollem Umfang und man sieht hauptsächlich nur dunkel. Um es bearbeiten zu können muss ich angeben wie der Monitor es in darstellen soll.

    Die Projektdateien und die genierten Bilder werden alle im eigenen 64bit Format abgespeichert. Das Programm ist komplett frei in der Bearbeitung. Es wird nichts automatisch gemacht sondern nur das was der Benutzer macht. Selbst das debayering (aus Sensor S/w Matrix Bild in Farbbild umwandeln) muss ich von Hand machen und einen Algo dafür angeben. Es gehen sogar eigene Skripte die jeden Pixel im Bild auslesen können und bearbeiten. Das habe ich benutzt um mal eigene schärfe Filter zu bauen usw. Jeder Pixel kann sogar genau ausgemessen werden und über Referenzen Messsysteme für Sterne und deren Helligkeitschwankungen zu messen. Das wird vor allem in der Expoplanetensuche genutzt.

    Auf jeden Fall ist der Farbraum deutlich größer als RGB. Ich muss beim speichern oder bearbeiten wen ich das "lineare Sensorbild" in ein für Geräte sichtbares Format umwandle entsprechend mit Kurven (ähnlich der Gammakurve in der Kamera) vorher berechnen. Dafür muss ich dann ein Farbsystem angeben. Dafür stehen bis zu 13 zur Auswahl. RGB ist eins davon. Das benutze ich am Ende wenn ich ein 16bit TIFF ausgebe. Ansonsten benutze ich das interne System.

    Wenn ich das 64bit Bild lade und das gleiche als ein 16 Bit RGB Bild dann sehe ich da schon größere Unterschiede. Vor allem wenn ich es als Tiff abgespeichert habe und es wieder in PI lade. Wenn ich dann beide Bilder nebeneinander stelle, das geht bei PI sehr leicht, da der Workflow hauptsächlich immer von vielen Kopien eines "letzter Stand Bild" erfolgt. Also der Verlust von Details ist schon krass, also feine Farbabstufungen. Dies erkennt man vor allem beim zoomen dünner Nebelstrukturen.

    Bei der "normalen" Fotografie wird es nicht auffallen, da die Kontrast um einen deutlichen Faktor höher sind.

    HG Markus