Posts by jho59foto

Im Rahmen der neuen Europäischen Datenschutzbestimmungen, haben auch wir unsere Datenschutzrichtlinie mit Wirkung zum 25. Mai 2018 für alle Besucher, Nutzer unserer Website aktualisiert. http://projectsforum.de/neu/index.php?datenschutzerklaerung/ Die Änderungen umfassen eine genauere Aufklärung darüber, wie wir deine Daten verwenden, einschließlich deiner Auswahl- und Kontrollmöglichkeiten und deiner Rechte. Ab dem Stichtag unterliegt deine weitere Nutzung unseres Forums der neuen Datenschutzrichtlinie. Hast du Fragen dazu? Rufe uns einfach an unter 06461/989877, oder schreibe uns eine Nachricht an stefan@stefan-runkel-online.de Herzliche Grüße! Dein Projectsforum-Team

    Ist hier vielleicht ein Astro-Profi unterwegs, der da mehr weiß?

    Ich denke mal, dass die Profis mit s/w-Kameras arbeiten, deren Dynamikbereich weit über den einer dSLR hinausgeht, und durch Farbräder ihre Farbanteile hinterher zusammenrechnen. Wenn der Sensor dann gekühlt wird, dürfte das nicht nur das Rauschniveau weiter absenken, sondern auch der Eigenerwärmung des Sensors entgegenwirken.



    Ich als Amatuer würde mir evtl. dmit behelfen, einen Teil der Darkframes am Beginn zu machen und die zweite Hälfe nach den ganzen Lightframes.


    Gruß

    Jürgen

    Hallo Jürgen, Hallo hre,

    Ja, ein jpg wäre nicht von Vorteil, da nehme ich lieber ein etwas mehr rauschendes RAW - da steckt noch mehr Information drin.

    Hallo ihr beiden,


    meine Nikon erzeugt ein Dunkelbild zur Verrechnung, wenn die Belichtungszeit länger als 1 Sekunde ist und die Langzeitbelichtungsrauschunterdrückung aktiv ist. Und es entsteht ein NEF, also keine Beschänkung auf JPEG.


    Der Grund für diese Langzeitbelichtungsrauschunterdrückung ist die Erwärmung des Sensors durch die lange Belichtungszeit. Bei Astroaufnahmen arbeitet man manchmal mit minutenlangen Zeiten.


    Ist dann ein Darkframe direkt nach jedem Lightframe besser als am Ende mehrere Darkframes zu erstellen?


    Wenn man z.B. 64 Lightframes für ein Astrostacking macht, lässt man den Sensor nicht nach jeder Aufnahme abkühlen, sondern macht gleich die nächste Aufnahme. Mit jeder Aufnahme wird der Sensor also wärmer. Darkframes am Ende der 64 Lightframes sind also passend für die letzten Aufnahmen der 64er Reihe, aber vermutlich passen sie nicht so gut zu den ersten Aufnahmen der Reihe. Ist dieser Unterschied überhaupt relevant?


    Andererseits werden die Darkframes, die die Kamera macht, sofort mit dem Lightframe verrechnet, man kommt an diese Daten nicht heran. Vermutlich macht die Kamera auch nur eine einfache Subtraktion. Und jede Aufnahme dauert doppelt so lange.


    Gruß

    Jürgen

    Hallo,


    ich kann euch sagen, was meine frühere dSLRs von Pentax gemacht haben: nach der eigentlichen Aufnahme wurde noch eine Dunkelaufnahme (Darkframe) gemacht. Das wurde mit dem Lightframe direkt verrechnet, man hatte hinterher nur eine Bilddatei.


    Wenn Du eine Bildserie für ein Noisestacking machen willst, hast Du bei z.B. 32 Bildern auch 32-mal die Zusatzzeit. Ich würde mal vermuten, dass man bei getrennt erstellten Darkframes mit viel weniger - also 4 bis 8 Dunkelbildern - auskommt? Das würde dann schneller geht.


    Gruß

    Jürgen

    1972 ... da hatte ich noch nicht mein Abitur. Und danach wollte die größte Trachtengruppe Deutschlands auch noch etwas von mir.


    Gruß

    Jürgen

    Nachdem ich nun etwas gesucht und gelesen habe ...


    So ein Sensor enthält mehere Millionen von Photodioden, also lichtempfindliche Teile. Deren Empfindlichkeit ist fix, also welche Spannung sie bei welcher Helligkeit abgeben.


    Man kann die ISO-Empfindlichkeit einer Kamera erhöhen, indem man das von den Photodioden kommende Signal verstärkt und dann durch den AD-Wandler schickt oder man führt erst die AD-Wandlung durch und verstärkt danach (ISO-invariante Sensoren).


    Man kann die Empfindlichkeit des Sensors bzw. der vielen Photodioden aber nicht reduzieren. Anscheinend macht Nikon bei seinen Kameras in den Lo-Einstellungen nichts anderes als eine Überbelichtung mit max. 1 Blende. Das wird anschließend zurückgerechnet.


    Im RAW-Entwickler kann ich das Rauschen in dunklen Bildpartien sichtbar machen, indem ich den Regler für die Belichtungskorrektur drastisch hochziehe. Wenn ich stattdessen bei einem um eine Blende überbelichteten Bild den Belichtungskorrekturregler nach links ziehe, wird Rauschen in dunklen Bildpartien weniger sichtbar.


    Ich sehe das so: Das Rauschen in den Lo-Einstellungen ist identisch mit ISO100, weil die Kamera nichts geringeres als ISO 100 kann, aber durch die anschließende Belichtugnskorrektur wird Rauschen weniger sichtbar.


    Gruß

    Jürgen

    Ergänzung: Die Nikon D810 und D850 haben eine Grundempfidlichkeit von ISO64.

    Das kann ich nicht sicher beantworten, würde aber aktuell davon ausgehen, dass das Rauschen im gleichen Verhältnis zur Belichtung ist, wie im ISO 100 Bild.


    Wenn wir die Belichtungszeit um 50% reduzieren, wird das Rauschen absolut auch 50% schwächer, im Verhältnis zur Belichtung bleibt es aber gleich - dabei setzen wir voraus, dass sich Rauschen gleichmäßig über die Belichtungszeit entwickelt (was ich vermuten würde)

    Hallo Michael,


    der Sensor hat ein Grundrauschen, das einfallende Licht erzeugt ein Nutzsignal, dessen Spannung um den Faktor x größer ist. Dadurch hat man einen gewissen Rauschabstand (Techniker messen so etwas in dB). Wenn man die ISO-Einstellung hochdreht, weil das Nutzsignal zu klein ist (zu wenig Licht), wird nicht nur das Nutzsignal verstärkt, sondern auch das Rauschen. Deshalb rauschen Kameras bei höherer ISO stärker. Dann gibt es noch eine Art Quantisierungsrauschen durch den AD-Wandler.


    Wie Nikon-Kameras in den Lo-Einstellungen die ISO auf 50 reduzieren, ist mir im Detail nicht bekannt. Suche neben dem ersten Kaffee dazu etwas zu finden ...


    Gruß

    Jürgen

    Hallo Michael,


    ich kenne aus meiner Jugendzeit Kleinbildfilme von Agfa mit DIN 18 bzw. ISO 50. Legendär war der Kodachrome 64 - ein Diafilm mit ISO 64 und einer fantastischen Feinkörnigkeit. Auf den Markt kam dieser Film lt. Wikipedia bereits 1935. Es gab auch einen Kodachrome 25. Möglicherweise gab es Dokumentenfilme mit einer geringeren Empfindlichkeit.


    Die ersten dSLRs hatten entweder ISO 200 oder ISO 100. ISO 200 war die typische Grundempfindlichkeit von Sony-Sensoren und entsprechend bei Nikon und Pentax verbreitet. Man kann zwar bei manchen Kameras auf -1EV umstellen und hat dann ISO 50. Das Rauschen dürfte aber weiterhin wie bei ISO 100 sein?


    Die Nikon D810 und D850 haben eine Grundempfindlichkeit von ISO 64.


    Fuji mit den S- und R-Pixeln in der S3pro und S5pro hatte ebenfalls ISO 100.

    Auch der Foveonsensor in der Sigma SD9 hatte eine Grundempfindlichkeit von ISO 100.


    Ansonsten hatte PhaseOne 2018 eine Mittelformatkamera mit 100 Mpixel und ISO 35 herausgebracht. Ältere Modelle hatten ISO 50, die waren aufgrund einer hohen Auslöseverzögerung kaum für bewegliche Motive geeignet.


    Eine Hasselblad H2D-39 (2006) mit 39 MPixel hat eine Grundempfindlichkeit von ISO 50.


    Gruß

    Jürgen

    Das ist auf jeden Fall einen Versuch wert :)


    VG Michael

    kurze Rückmeldung:

    Denoise 3 kommt mit der Verschiebung zurecht. Allerdings sind sowohl das Gras im Vordergrund als auch die Insel in der Ferne unschärfer - egal ob mit oder ohne 2fach Drizzling. Hinzu kommt, dass der Wind die Wolken über die Insel schiebt, da kann ein Einzelbild nur besser aussehen.


    Im Vergleich dazu kann HDR 8 mit der argen Verschiebung nichts anfangen, das Gras im Vordergrund sieht grausam aus. Und auch NEAT hatte kein wirklich "schönes" Ergebnis geliefert.


    Vielleicht komme ich da nochmal hin. Dann versuche ich, den ShakeReduction-Mechanismus abzuschalten.


    Gruß

    Jürgen

    (b) von links, rechts, oben, unten ganz leicht auf die Kamera drücken und jeweils ein Bild machen

    - ganz leicht bedeutet wirklich ganz leicht, im Optimalfall wollt ihr nur eine Verschiebung von einem halben Pixel erreichen

    - nicht an den Ecken drücken, das führt zu Drehungen im Bild)

    Hallo Michael,


    deses Drücken ist aber auch eine Drehung um die Objektiv-Kamera-Achse und keine Verschiebung. Es ist nur keine Rotation um die Objektivachse. Oder willst Du mit dem Drücken auf die Kamera bzw. auf den Prismenkasten erreichen, dass das Stativ in der Höhe leicht nachgibt?


    Kannst Du mir sagen, welche Auflösung das Bild vom Kreisverkehr hat und wieviele Pixel das Plakat groß ist?


    Eine reine Verschiebung links-rechts könnte ich mit meinem Lineartisch im Mikrometerbereich durchführen. Nur leider nicht hoch-runter, da hätte ich mir einen Tisch mit zwei Achsen kaufen müssen. ;)


    Ich habe eine größere Bilderreihe aus dem letzten Urlaub. Leider hatte ich vergessen, die Shakereduction abzuschalten. Die ist auf manchen Bildern aktiv auf anderen nicht. Dadurch gibt es einen deutlich Versatz (vielleicht 50 bis 200 Pixel), NEAT konnte damit nicht wirklich etwas anfangen. Vielleicht eine Sache für Denoise? Ein 2fach Drizzling ist ja auch schon bei der Version 3 vorhanden.


    Gruß

    Jürgen

    Ich sage es mal aus Sicht des Vortragenden - heute hat sich kein einziger Zuschauer über die Qualität beschwert, wir waren aber auch "nur" 200 Zuschauer - beim ersten Denoise 4 Webinar waren es fast 300.

    Vielleicht hat es damit zu tun...


    VG Michael

    Hallo Michael,


    ich habe im Abstand von ca. 1 Minute zwei Screenshots gemacht:




    Du hattest zwischendurch an den Einstellungen gespielt und es ist für mich als Zuschauer nicht sicher, wieivel der Störungen in der glatten Fläche Übetragungsfehler sind oder auf unterschiedlicher Einstellung für Glättung usw. beruhen.


    Es ist schade, dass Du nicht an der unverfälschten Quelle eine Aufzeichnung in hoher Qualität machen darfst/kannst, so dass man das im nachhinein besser beurteilen kann.


    Von Franzis kam mal wieder die Mail, dass es auch diesmal keine Aufzeichnung gibt.


    Gruß

    Jürgen

    Michael:

    Funktioniert Drizzling vom Stativ aus oder benötigt man immer einen leichte Verschiebung?


    Soweit ich weiß, können Pentax-dSLRs so etwas, verschieben aber zwischen jeder Aufnahme den Sensor (der ist beweglich gelagert) um einige Pixel.


    Gruß

    Jürgen

    Hallo Michael,


    beim zweiten Screenshot hat das Wasser einen lila Farbstich. Bei einem Foto würde ich mit dem Farbrad experimentieren. Aber bei einem Video geht das nicht? Oder kannst Du auf einen Bereich des Videos einschränken, auf den so Bearbeitung nur durchgeführt werden soll?


    Beim fünften Screenshot hat Dein Programm zuviel Rot hineingemsicht. Der Leopard-Drückfish hat ein gelbes Maul. Bei Wikipedia kannst Du ein "mustergültiges" Foto sehen.


    Gruß

    Jürgen

    Ich habe keine Ahnung von Webinarsoftware, aber ich habe schon Video und Audiodateien (um)kodiert.


    Meine Erwartung ist daher, dass es in den Einstellungen der Webinarsoftware einen Punkt gibt, mit dem man die minimale und maximale Datenrate festlegen kann.


    Es wäre aber auch möglich, dass das Programm bei der anfänglichen Prüfung feststellt, welche Bandbreite bei jeden eingeloggten Empfänger tatsächlich vorhanden ist - kann durchaus sein, dass jemand für 16 Mbit/s bezahlt, aber nur 10 Mbut/s bekommt. Oder jemand anderes im Haushalt telefoniert (ist ja heutzutage über IP) oder lädt Daten herunter und schon ist die verbleibende Datenrate geringer als erwartet. Und dann wird das Minumum aller Useranschlüsse genommen.


    Gruß

    Jürgen

    Von meinen 50MBit Upstream wurden im High-Peak 8.6MBit genutzt.

    8,6 Mbit/s sind nicht viel.

    Gib die Beschwerden mal an Franzis weiter. Evtl. komprieren die die Datenmenge zu stark.


    Gerade mal nachgesehen:

    Amazon soll bei HD-Videos mit 3,5 Mbis/s arbeiten, ARD und ZDF bei ihrer Mediathek mit 4 Mbits/s, Netflix 5 Mbit/s, Telekom bei MagentaTV 9 Mbit/s. Die verwenden also alle geringe Datenraten. Solche "Wolken" wie beim gestrigen Webinar sind mir bei der Mediathek von ARD und ZDF bisher nicht aufgefallen.


    Gruß

    Jürgen

    Nachtrag:

    Ok, eines kann ich aufgrund Eurer Daten schonmal sagen:

    -> Eure Rechner und INet-Leitungen sind leicht in der Lage mit solchen Streams umzugehen


    Entwickler wie ich suchen halt immer nach der direkten Lösung :-)

    Hallo Michael,


    bist Du sicher, dass es nicht an Deiner Internetanbindung gelegen hat?


    Mir ist aufgefallen, dass Dein Bildschirm in der Übertragung schlecht aussah. Das Chatfenster war von der Textdarstellung scharf. Vielleicht liegt es aber auch daran, dass dieser Teil eher statisch ist?


    Gruß

    Jürgen

    Hallo Michael,


    ja ich meine Astrobilder bearbeiten mit DENOISE 4. Da sind ja Neuigkeiten hinzugekommen.


    Gruß

    Jürgen