Posts by rawitz

    Danke für die Antwort!
    Compur 1 würde zwar vom Spacing her passen, aber das Einschraubgewinde fürs Objektivs ist ca. 41mm. Das WA Claron 240 hat ein Einschraubgewinde von ca. 57mm, der Linsendurchmesser innen zum Verschlusstubus ist ca. 50mm, das wird eng mit einem 1-er Verschluss. Möglichkeiten sehe ich bei einem 4-er Compound mit ca.70mm E-Gewinde, aber dann müsste man den Tubus stark abschleifen, das Gewinde vertiefen und in die Linsenfassung ein solches neu einschneiden.
    Das könnte ungefähr funktionieren.
    Meines Erachtens wird das Spacing-Problem zu wenig beachtet, nur weil man ein Objektiv in einen Verschluss passend einschrauben kann, heisst nicht, dass die optischen Konstruktionsmasse eingehalten werden. Das gilt natürlich nur, wenn die Objektive als Vorder- und Hinterglied getrennt montiert werden. Komplett in der Orginalfassung vor oder hinter dem Verschluss montiert gibt es kein Problem, da das Objektiv nicht aufgetrennt wird. Ich möchte nicht wissen, wieviele "erfolgreiche" Objektivmontagen genau nachgemessen nicht funktionieren. Vor allem die beliebten Reproobjektive Clarone und Ronare kommen eigentlich in ihren Orginalfassungen nicht baugleich mit unseren Verschlussfassungen.
    Aber gut, das kann ich mit meinen Amateurmitteln nicht weiter verfolgen.
    An deinen Tip mit dem Normal G-Claron 240 habe ich schon gedacht, aber ich brauche wirklich gute optische Qualität über den Bildkreis 40mm, nicht nur Ausleuchtung. Und da bin ich beim Normal-Claron 240 mit Nominalbildkreis von 30cm bei oo schon skeptisch. Meine grossen Farbnegative werden hochaufgelöst mit 2400 dpi gescannt.
    Ich habe zb. ein normales Symmar 5,6/240 im Compur 1, das zwar bei einem offiziellen Bildkreis von 34cm bei mir 39cm auf dem Film ausleuchtet, aber die Abbildqualität ist indiskutabel, wenn man nicht einfach kontaktkopiert oä.
    Das WA 240 würde es schaffen, deshalb kann ich dieses Projekt nicht ganz vergessen.
    Gruesse
    Rainer

    Hallo norma,
    sehr beeindruckend, was du da machst.
    Leute, die diese opto-mechanische Probleme überhaupt erkennen, und dann auch noch lösen können, gibt es kaum noch.


    Obwohl es nicht genau zu deinem Arbeitsprojekt passt, aber doch zum Arbeitstitel Objektivumbau, fällt mir wieder ein für mich schon abgelegtes Umbauprojekt ein, das ich hier mal dranhängen darf. weil es einen eigenen Thread wohl nicht wert ist.
    Ich habe mal versucht, ein Schneider G-Claron WA 240mm/11, das eigentlich ein für den Nahbereich 2:1 bis 1:2 hochspezialisiertes Apo-Repro-Weitwinkelobjektiv (80*) ist, als normales Aufnahmeobjektiv umzubauen. Selbst bei umgerechneten oo ergibt sich noch ein Bildkreis von ca. 40 cm, der genau zu meiner "alten" 9x15`(21x37cm) Plattenkamera passen würde.
    Bei der Internetrecherge habe ich erfahren, dass das Objektiv für diese Verwendung keine gute Noten bekommt. Und tatsächlich, montiert in einen Compur 3 Verschluss (die Gewinde passen) fällt die optische Leistung vom Zentrum aus deutlich ab.
    Hm, vergleichsweise in der Orginalfassung mit Blendenkörper ohne Verschluss montiert, sah die Sache aber schon deutlich besser aus. Wenn auch noch nicht überzeugend. Sofort war klar, dass der Fehler im Spacing lag, dh. die Länge des (Einschraub)Verschlusstubus beim Compur 3 beträgt 33mm, des Orginaltubus dagegen 29,5mm. Ein solcher Unterschied von fast 4mm führt bei einer Weitwinkelkonstruktion natürlich zu den Abbildfehlern ausserhalb der optischen Achse.
    Eigentlich war damit das Projekt beendet. Da es nichts mehr zu verlieren gab und ich im Spacing das eigentliche Problem erkannt hatte, habe ich den Orginaltubus nochmal mit meinen bescheidenen Amateurmitteln, einen simpler Schleiftisch, um 2mm gekürzt (mehr ging mechanisch nicht).
    Das Ergebnis war eine dramatische Verbesserung der Optik an der Kamera. Die Randunschärfe war bei Bl.11 fast und bei 22 völlig verschwunden. Der Bildkreis hat sich nochmal um etliche cm erweitert.
    Durch die Verlängerung des Spacings im Compur 3 hat sich die Optik gegenüber der Orginalfassung deutlich verschlechtert, durch die Verkürzung der Orginalfassung deutlich verbessert. Die Erklärung ist logisch: Durch ein verkürztes Spacing wird das auf den Nahbereich konstruierte Ojektiv auf den Unendlichbereich "korrigiert", dh. für normale Fotografie nutzbar.
    Aber für den nächsten Schritt, einen Verschluss mit Einschraubgewinde Compur 3 und einer Tubuslänge 27mm zu finden oder umzubauen, habe ich keine Lösung gefunden. Ein Compur 3 Tubus lässt sich nicht von 33mm auf 27mm herunterschleifen. ich habe bei mir auch Compounds 3, 4 und sogar 5, da könnte man durch die offene Bauweise eher den Tubus verkürzen, aber die Normallänge beim Compound 4 ist schon 45mm, man müsste also noch mehr wegnehmen.
    Meine Frage an den Tüftler und Mechaniker ist also, gibt es eine Möglichkeit, ein Claron 240 WA in einen Verschluss mit 27mm Länge zu setzen?


    Rainer

    Ich hatte die ATL-1 und 2 im Labor, ist aber lange her.


    Der Fehllauf des Ausgussarms kann mechanisch dadurch
    entstehen, dass er mal in eine falsche Stellung verdrückt wurde
    und dann so weiterläuft. Kann aber auch die Steuerungsplatine sein.


    Ich hatte das auch mal und habe es bei Jobo reparieren lassen.
    Gibts den Herrn Seintje von Jobo noch?


    Rainer

    Ich verstehe nicht die komplzierte Anweisung zur Justierung der Unendlichanschläge oben ?!


    Ich lege die Anschläge locker in die Schiene, montiere das gewünschte Objektiv
    und kontrolliere die oo-Schärfe auf der Mattscheibe genau. Dann werden die
    Anschläge bündig vor den Auszug geschoben und festgeschraubt. Das wars. Oder?


    Ich habe auch noch einen Trick für das Justieren der Cams.
    Eine "neue Cam" wird bei 00-des Objektivs soweit in der Camfassung
    vor- und zurückgeschoben, bis der Entfernungsmesser deckt.
    Damit man das nicht jedesmal neu machen muss, wird ein Hölzchen
    an die Cam unten als Anschlag geklebt. Schon ist die Cam justiert, jedenfalls
    für 00. Klappt bei mir meistens auch über die ganze Entfernungskurve,
    testhalber mal auf 1 Meter E-messen und dann auf der Mattscheibe kontrollieren.
    Ich habe dann höchsten 1 cm Abweichung. Dh. Für den normalen
    Reportagebetrieb bis 3 m klappt es, und bei Abblenden sowieso.


    Viel Spass beim Justieren.
    Rainer

    meintest Du Dogmar
    Das Dagor hat sechs Linsen in zwei Gruppen.

    Richtig, die 4 einzelstehenden Linsen des Fujinon-c 600 sind symmetrisch um die Blende gruppiert und sind genau Goerz-Dogmar, eine Weiterentwicklung des 6-linsigen Dagor.
    Interessant vielleicht, dass die legendären Schneider Fine Arts XXL als 550/11 ein symmetrisches 2-gliedriges 6-Linsen Dagor-Design, als 1100/22 ein 4-gliedriges 4-Linsen Goerz-Dogmar aufweisen. Erklärung wohl: 90cm Bildkreis lassen sich bei 550mm nur mit dem aufwendigem 6-Linser als bei 1100 mit dem 4-Linser erreichen. Revolutionäre Optiken sind aber beides nicht, nur seltene.
    Rainer

    Für welche Großformatkamera, welches Format braucht man ein 600 mm Objektiv?
    Klärt mich ahnungslosen Anfänger bitte auf! (Ernst gemeint.)


    Sharif

    Bei 62 cm Bildkreis passt dieses Fujinon-C 600 zu den damals/heute beliebten ULF-Kameras 10x12(25x30cm), 12x20(30x50cm) ua. Für das Kingsize-ULF-Format 20x24 (50x60) ist der Bildkreis schon zu klein.
    Dafür und vor allem für das respekteinflössende 20x24 Polaroid Rückteil war der Vorläufer Fujinon-A 600 gedacht mit einem Bildkreis von 84 cm (Bl.11, aber 6-Linser (Gauss), single-coated, Filter 95mm (gegen 67mm), also ein Trumm.


    Diese spätere Fujinon-C(ompact) Linie gab es ähnlich wie die Nikkore-M auch mit 300 und 450 mm mit entsprechend kleinerem Bildkreis 38cm und 48cm. Sie sind übrigens einfache symmetrische 4-Linser (Dagor), also keineswegs komplizierte Rechnungen.


    Beliebt waren diese Objektive bei Fotografen, die mit ihren Übergrossbildkameras ab 8x10(20x25) Naturfotos machen wollten, zb. das beliebte 12x20(30x50) Panoramaformat. Und sind es heute noch mehr, weil man durch die Digitaltechnik, dh. Scannen, Bildbearbeitung und digitaler Grossformatdruck diese Überqualität tatsächlich nutzen kann!! Früher konnte man nur Kontaktkopieren.


    Kaum jemand kennt noch die Schneider Fine-Arts XXL Objektive mit 550mm und 1100mm Brennweite, die erst ca. 2004 auf den Markt kamen mit 90cm (!!) Bildkreis. Listenpreis ca. 10000 eur, aber dafür gab es eine Namensgravur umsonst, na Bitte. Ich habe noch nie eines angeboten gesehen.


    Warum waren/sind diese Objektive so teuer? Weil eine Kleinserie oder gar Einzelanfertigung die gleichen Konstruktions- und Werkzeugkosten erfordert wie eine Grossserie der Standardformate, und dazu in Einzelfertigung produziert wird. Nicht weil es so ausgefeilte geniale Konstruktionen und Gläser wären.


    Rainer

    Hallo Bernhard,
    man muss es nicht überkomplizieren. Solange die Bildausschnitte bei den Orginalaufnahmen übereinstimmen,
    dh. "immer dasselbe auf dem Bild/Film ist", ist die Abweichung bei der Darstellung der Ergebnisse nicht entscheidend, sondern machen die Dinge klarer.
    Der Autor hat sich um "labormässig" perfekte Testbedingungen gekümmert - finde ich beeindruckend.
    Als wirklicher Fotograf muss ich die unvermeidlichen Toleranzen aber mit bedenken: ich fotografiere nicht mit technischen, sondern bildmässigen Filmen (Provia, Sensia), obwohl ich (aus schlechter Erfahrung) seit langem meine Filme in der Kassette mit Doppelklebeband fixiere, kann ich nicht alle Differenzen zwischen Mattscheibe und Film aussschalten, ich scanne im Drumscanner mit max. 2500 dpi usw.
    Ich habe kürzlich das IQ 180 (80 MPixel-Digitalrückteil für Mittelformat) getestet - es ist für mich (!) praktisch (!) gleichwertig mit meiner 13x18 Handkamera mit S-Angulon 90mm:
    Aber: Die entsprechende 28mm Optik (4200 eur) fällt auch abgeblendet deutlich zum Rand hin gegen das SAngulon (450 eur) ab. Grossformat zahlt mir heute kein Kunde mehr - aber auch mit einem Foto von einer 40.000 eur teuren Mittelformatausrüstung (PhaseOne IQ 180) zahlt mir kein Kunde mehr als mit meiner Canon 5D2 (3000 eur), selbst diese ist schon bei 95% der Aufträge ein technischer "overkill".
    Soweit die Tatsachen ob man sie will oder nicht - nicht durch allgemeine Kameratechnik, sondern nur durch Spezialkenntnisse in Organisation und Software-Bearbeitung kann ich die Kunden noch beeindrucken.
    So trifft man sich zum Schluss doch noch: Als Gross(digital)format-Fotograf bin ich ein künstlerischer Amateur
    wie andere auch - weil Fotografie auch einen Selbstzweck darstellt.
    Gruesse
    Rainer

    Hallo Hako,
    keine Bange, das ist kein Fehler der Minolta, sondern wenn du so willst, der Phsyik der Abbildung.
    Die gängigen Objektive sind alle "flächentreu" berechnet, dh der (rechtechigen) Fläche des Filmes hinter dem Objektiv entspricht geometrisch und in der Schärfeabildung eine rechteckige Fläche der Aufnahmeebene. Oder praktisch gesagt: wenn du eine (rechteckige) Mauer fotografierst, dann willst du diese Mauer auch rechteckig auf dem Film und von der Mitte bis zum Rand gleichscharf haben. Das wird aber nur durch die "flächentreue" Abbildung erreicht. Wenn du jetzt nachmisst (oder nachdenkst), dann ist klar dass die Entfernung der Mauermitte von deinem Objektiv kleiner ist als die vom Mauerrand, wenn du den Mauerrand in die Bildmitte drehst, wird er unscharf, weil er tatsächlich von der Kamera weiter entfernt ist.
    Tip: Wenn du die Randschärfe von Objektiven visuell testen willst, klappt das nur bei Unendlich-Einstellung.
    Gruesse

    Quote from "Diesch"


    Hast du es so eilig?
    .


    Ich muss zu meiner Schande gestehen: Ja
    Ich stelle zwar Heizer und Ventilator auf klein und habe auch zusätzlich ein Handtuch über dem Luftfilter gelegt, aber eine ganze Nacht warten - kann ich nicht.
    Vermutlich wäre eine Filmreinigung auf alle Fälle angebracht ....


    Gruesse
    Rainer

    Hallo Tasso,


    für Dia oder Negativfilm merke ich zeitlich und qualitativ keinen Unterschiede beim ICE, aber beim Negativ sieht man den Staub durch die Umkehrung ("weiss auf dunkel") deutlicher als beim Dia, man muss also manuell aufwändiger ausflecken.


    Bei hochqualitativem ICE werden die im Infrarotscan von den Filmdetails getrennt erfasten Staubdetails identifiziert und mit den sauberen Rändern der Störungen zugerechnet - eine schon anspruchsvolle Rechensache, da auch Muster rekonstruiert werden müssen - vergleichbar mit dem Reparaturpinsel im Photoshop. Die Schärfe im Scan verschlechtert sich nicht, da das ICE nur punktuell eingreift, sonst ja nichts im Scan verändert.


    ICE geht nicht, wenn die Störungen zu gross werden. Aber das sieht man selbst.
    Aber auch grossflächiger Feinstaub, den das Auge im Filme kaum sieht, bringt ICE aus dem Tritt. Der Epson rechnet sich dann an jedem Mikrostaubkorn fest, und fängt an, selbst Bildflächen oder schlimmer Bilddetails zu erfinden, weil er in den flächigen Verschmutzungen keine sauberen Ränder mehr findet - die berühmten Artefakte!
    Mein Nikon LS 9000 ist da schlauer - wenn es ihm hardwaretechnisch oder schmutztechnisch zu viel wird, schaltet er beleidigt ab und lässt den Dreck einfach im Scan drin.


    Ich habe mir deshalb angewöhnt (das vergass ich zu sagen!), jeden Film nach der Entwicklung einer einmaligen gründlichen Nassreinigung zu unterziehen, die den (vor allem im Filmtrockner eingebrannten) Feinstaub entfernt.
    Mit Filmreiniger (oder Waschbenzin aus dem Baumarkt) ein Mikrofasertuch gut einnässen und dann vorsichtig-fest beide Filmseiten ganzflächig wischen. Reiniger nicht direkt auf Filmschicht schütten, bei mehrmaligem Wischen warten bis Flüssigkeit auf Film wieder verdunstet ist, sonst ist Filmschicht weggewischt ..... ääähhh, also meine Tips hier natürlich ohne Gewehr ! Also am Ausschussfilm üben - es ist nicht so kritisch wie es sich hier anhört.


    Es wäre interessant, mal eine Versuchsreihe zu starten, was die verschiedenen ICE-tauglichen Scansoftwaren Epsonscan, Vuescan und Silverfast im Vergleich leisten. Wer hat sie alle?


    Hallo Tasso, deine Frage nach dem Vergleich zum Trommelscanner öffnet natürlich ein riesiges Diskussionsfeld. Wie amtlich hier früher festgestellt, sind die Trommelscans einen kleinen Tick schärfer. Aber besonders bei Farbnegativen sind mE. die Farben und Dichten aus der Trommel unmittelbar viel besser, wo ich im Epsonscan viel nacharbeiten muss. Manchmal habe ich so unschöne Überstrahlungen im Epsonscan (beim Negativ überstrahlt die Kante vom Dunklen ins Helle, das sieht Sch... aus), dass ich dann doch lieber trommelscanne. Ich habe seit 1994 !!! einen Scanmate 5000 (5000dpi, A4 Trommel, 1Pass-3fach-Multipler), hatte damals auch versuchsweise einen Screen und Howtek bei mir stehen. Aber das ist ein anderes Thema.


    Ich bin gespannt auf deinen Superrechner!


    Gruesse
    Rainer

    Aus aktuellem Anlass soll hier speziell das ICE-Scannen am Beispiel der Epson 700/750-Scanner angeschnitten werden:


    In der Abwägung der Vor- und Nachteile von Foto-Flachbettscannern wie dem Epson 700/750 ist neben dem Einsatz der HIRES-Funktion (nur mit EPSON-Filmhaltern) die ICE-Staubretusche für mich ein wichtiges, wenn nicht entscheidendes Kriterium.


    Die bekannten Gegenargumente sind „überlange“ Scanzeiten und Retuschefehler vor allem im Hi-Quality-Modus des ICE. Aus meiner Erfahrung möchte ich hier folgendes zur Diskussion geben:


    Meine 13x18 Filme sind im Trommelscanner bei 2000/2400dpi in circa 3 min auf ca. 500 Mbyte gescannt. Das ist schnell, aber die notwendige sorgfältige Vorbereitungszeit für einen Trommelscan dauert viel länger – und die nachträgliche manuelle Staubretusche dauert mindestens ½ Stunde ( im Photoshop bei 100% Ansicht Reihe für Reihe durchgescrollt und mit Stempel retuschiert).


    Im Epson 700 dauert der gesamte Scan in Hires-2400dpi mit HQ-ICE eine ¾ Stunde.
    Im Resultat ungefähr gleichlang, aber hier muss ich selbst arbeiten, da tut es der Epson!


    Die „Retuschefehler“ beim ICE hatte ich anfangs auch. Nachdem mir aufgefallen ist, dass die Artefakte immer nur oben oder unten im Scan aufgetreten sind, wurde klar, dass dieses kein Softwarefehler, sondern ein Arbeitsspeicherproblem ist!
    Auch die Scanzeiten sind direkt abhängig von der Rechnergeschwindigkeit und Arbeitsspeicher. Mit meinem alten 1,8 Mhz/2 Gbyte Rechner dauerte obiger Scan doppelt solange 1,5 h wie jetzt mit einem 2x2,2 Mhz / 3 Gbyte Rechner. Artefakte habe ich jetzt keine mehr und der HQ-ICE-Modus ist klar besser also der einfache ICE-Modus (der natürlich weniger Rechenpower und vor allem Arbeitsspeicher braucht).


    Eigentlich ist es klar: im ICE-Modus macht der Scanner 2 Scandurchgänge (RGB-Scan und Infrarotscan), die dann erst miteinander verrechnet werden müssen. Wenn die Daten im Arbeitsspeicher gehalten werden können, ist der Scanner viel schneller. Sonst muss der Sanner die problematische virtuelle Arbeitsspeicherverwaltung von Windows einschalten, was m.E. die Ursache der Scanfehler beim ICE ist.


    Die neueren Versionen der Epson-Scansoftware sind übrigens hier nicht mehr so fehleranfällig wie die früheren (vermutlich bessere virt. Speicherverwaltung). Über alternative Scansoftware kann ich selbst nichts sagen, vielleicht die anderen ….


    Für den grossformatigen ICE-ler gilt deshalb unbedingt:
    HQ-ICE einsetzen, neuste Epson-Scansoftware verwenden, soviel Arbeitsspeicher wie möglich (bis 3 GB) aufrüsten und zusätzlich für virtuellen Speicher die Systemfestplatte C grundlich aufräumen! Mit 64-bit Windows wäre man wahrscheinlich noch einen grossen Schritt weiter.


    Gruesse
    Rainer

    Quote from "darekdp"


    Halo Rainer,
    Wegen meine kleine deutschverständnis, bitte um Bestätigung, dass alle Deine Raten
    für filmhalter aus Fluid-Mount Satz angehen? (alles mit AN-Glass usw.)
    Grüsse, Dariusz


    Hallo Dariusz,
    richtig es geht hier um die Epson Fluid-Mount-Station für den 700/750 Scanner.
    If it´s helpful for you, I can give you an english translation ...


    Frohes Fest an alle hier!
    Rainer

    Hallo Gerhard,


    1. Manche (hochwertige) Scanner können keine Scans über 1 GByte ausgeben, dann muss man sich bei Grossformat zb.8x10´entscheiden, ob man eine Auflösung mit oder über 2400 dpi bei 8bit wählt ODER einen 16bit Orginalscan mit Auflösung unter 2000dpi (weil ein 16bit Bild unter sonst gleichen Bedingungen doppelt so gross ist wie ein 8bit).


    2. Als Kompromisslösung wird unter Fachleuten (siehe US.Thread, aber auch bei uns siehe ganz oben) empfohlen, lieber mit 8bit und 2400dpi oder mehr zu scannen, danach in der Bildbearbeitung in 16bit umwandeln und zu bearbeiten.
    Dazu gibt es zwei Meinungen:


    A. Dieser "Kompromiss" ergibt immerhin bessere Ergebnisse als reine 8bit-Bearbeitung, wenn auch schlechtere als reine 16bit.


    B. Dieser Kompromiss ergibt GENAUSO gute Ergebnisse wie reines 16bit, da beim Scannen die Nettobitrate nicht über ca. 5 bit liegt,also schon 8bit ein gewisser Overkill ist, 16bit erst recht.


    Bisher dachte ich Standpunkt B ist richtig, ebenso wie die Theorie-Schwergewichtler im US-Forum, aber meine Ergebnisse geben hier Standpunkt A recht. Allerdings mit der Einschränkung, dass bei tendenziell monochromen 8bit Bilder (oder Bildpartieen) auch Verfahren A nichts bringt! Unglücklicherweise sind aber genau die sehr kritischen hellen Lichter und dunklen Schatten, wegen denen man zu 16bit greifen würde, äusserst monochrom. Deshalb hat mein Realscan ganz oben KEIN positives Ergebnis bei Vorgehen A gebracht.


    Vielleicht haben andere Leute hier andere Ergebnisse und können die hier zeigen.


    Gruesse
    Rainer

    Hallo,
    nochmal am schlaflosen Adventsonntagnachmitag über die Sache nachgedacht:
    Der 8bit-Farbraum heisst zwar ca. 16Mio (256x256x256) mögliche Farbabstufungen, aber halt auch nur mögliche. Mein toller Graukeil hat tatsächlich ja nur 256 Abstufungen, da die 265 Stufen Rot, Grün und Blau deckungsgleich übereinanderliegen.
    Also ein 8bit-Farbraum kann 16Mio. Farbstufen maximal haben, aber auch nur 2 (schwarz-weiss oä.), im tatsächlichen Digitalbild liegen die Werte irgendwo dazwischen.
    Also habe ich die Farbkurven meines Graukeil etwas quergespreizt (neu statt Greyscale jetzt "Colorscale"), dadurch liegen sie nicht mehr übereinander und ergeben logisch kein Grau mehr, haben aber mehr als 256 tatsächliche Abstufungen.
    Das gleiche Verfahren wie oben mit doppelter Gradationsaufsteilung ergibt tatsächlich ein neues Resultat:


    Zunächst 8bit generiert und 8bit bearbeitet/gespreizt:


    [Blocked Image: http://grossformatfotografie.de/coppermine/albums/userpics/10465/Colorscale8bit-8bit.jpg]



    Jetzt 8bit generiert und 16bit bearbeitet ergeibt tatsächlich eine Verbesserung !!! Aha:


    [Blocked Image: http://grossformatfotografie.de/coppermine/albums/userpics/10465/Colorscale8bit-16bit.jpg]



    Der 16bit generierte und 16bit bearbeitete Colorscale ist aber weiterhin ungeschlagen:


    [Blocked Image: http://grossformatfotografie.de/coppermine/albums/userpics/10465/Colorscale16bit-16bit.jpg]



    Was folgt daraus ?
    Eigentlich habe ich zuerst nichts "falsch" gemacht, sondern nur einen bestimmten 8bit Sonderfall "Graukeil" vorschnellt verallgemeinert. Richtig scheint vielmehr die Einsicht, dass dem Schritt von 8bitScan-zu-16bitBearbeitung umsomehr eine qualitative Mittelstellung zwischen reinen 8bit und reinen 16bit zukommt, je mehr tatsächliche Farbabstufungen innerhalb des möglichen 8bit-Farbstufenraums von 16Mio. vorliegen, mit anderen Worten: je BUNTER das Ausgangsbild ist, desto wirkungsvoller die Umwandlung und Bearbeitung im 16bit Farbraum!
    Dumm ist nur, das in einem real-existierenden Foto die kritischen Schatten und die Lichter naturgemäss nur "monochrom" daherkommen, also tendenziell sich den Grauwerten annähern. Deshalb konnte mein Realscan dann auch kein anderes Resultat ergeben als der Graukeil.
    Also alle Fragen beantwortet und trotzdem wieder alles offen - oder weiss es jemand besser ?


    Gruesse
    Rainer

    Hallo Martin,
    ich habe die Gradationskurve in die Galerie eingestellt.
    Ich hoffe ich kriege sie hier in den Thread:


    [Blocked Image: http://grossformatfotografie.de/coppermine/albums/userpics/10465/Gradationskurven.jpg]


    Genau wird also der Bereich von 0 bis 60 (Schattenbereich) auf 0 bis 255 gespreizt, wobei die "Zwischenwerte" neu erechnet werden müssen.
    2mal hintereinander angewendet verstärkt sie den Effekt, andererseits ergibt dies theoretisch die Möglichkeit eines wirkungsvolleren Dithering.


    Rainer

    Quote from "GerdO"


    Warum es ab 2000dpi weniger Farbabstufungen geben soll als bei geringer auflösenden Scans ist mir nicht einsichtig. Noch dazu wenn Rauschen dazu führen soll. Rauschen füllt natürlich die im Bild nicht vorhandenen Werte mit zufälligen Werten auf.


    Die Darstellung am Bildschirm ist m.W. immer eine 8-bittige. Mehr können Bildschirme i.d.R. nicht*. Ein Bild, für das 16 Bit pro Farbkanal vorliegen wird also am Bildschirm genauso dargestellt, wie das ansonsten identische 8 bittige Bild. (Vorrausgesetzt natürlich die Umwandlung zw. 16 und 8 Bit erfolgt jeweils auf dieselbe Art und Weise).


    Was hast du getan, als du in einen "16-Bit Farbraum" konvertiert hattest? Ich nehme an, du hast die Arbeitsdatei in PS von 8 auf 16 Bit pro Kanal konvertiert. Dabei passiert natürlich erstmal nichts. Jedoch solltest du Unterschiede zumindest am Histogramm feststellen, wenn du danach Gradation beider Bilder veränderst: Das Histogramm des konvertierten Bildes sollte weniger Sprünge aufweisen. Meist sieht man das auch im Bild.


    Hallo Gerd,
    also das ist klar, dass der Unterschied zwischen einem 8bit und 16bit Bild auf einem (modernen) 10bit Bildschirm nicht erkennbar ist. Auch nicht nach einer Umwandlung von 8 auf 16bit.
    Gilt natürlich auch umgekehrt! Da ich hier ins Forum keine 16bit Bilder einstellen kann, sind auch die 16-bit hier wieder alles als 8bit Bilder reduziert.
    Entscheidend ist aber, was während der BEARBEITUNG geschieht. Denn die Resultate kann man ja wohl hier sehen, sonst wäre das hier alles nur virtuell wie Weihnachten an sich.
    Wie du meinst, nach eine Umwandlung von 8bit auf 16bit Workspace "solltest du Unterschiede zumindest am Histogramm feststellen, wenn du danach Gradation beider Bilder veränderst: Das Histogramm des konvertierten Bildes sollte weniger Sprünge aufweisen. Meist sieht man das auch im Bild".
    Diese theoretisch einsichtige Meinung wird leider durch meine Bildbeispiele oben widerlegt !!! Weder beim Realscan noch beim nativen Graukeil in 8 und 16bit verhält es sich so, dass der zwischendurch für die Gradationsbearbeitung auf 16bit aufgestockte Farbraum ein besseres oder überhaupt anderes Ergebnis bringt als die durchgehens 8bit Bearbeitung.
    Das SIEHT man wohl auch oben, so brauchen wir nicht zu diskutieren, ob man es sehen kann oder nicht.


    Für die "5bit Nettoscans ab 2000 dpi" bitte meinen Link ins amerikanische Forum lesen. Wird dort sogar mathematisch genau erklärt.



    Hallo Hans,
    Klar werden die orginären 14 Scannerbits erstmal auf 16 in der Datei hochgerechnet, das ist nicht mehr optimal. Aber trotzdem SIEHT man hier einen Unterschied trotz aller Abstriche. Beim 16bit Scan ist wohl deshalb der Unterschied zum 8bit-Scan in den Bildern nur minimal, beim kompromissfreien orginären 16bit Graukeil aber mächtig.


    Vielleicht gibt es einen Fehler in meinem Experiment. Den bitte ich und allen anderen hier aufzuzeigen und nicht die bekannten Standpunkte einfach zu wiederholen. Ich kenne sie auch.


    Gruesse
    Rainer

    Zur Diskussion bitte diesen Link ausführlich lesen:


    http://www.largeformatphotogra…thread.php?t=56588&page=6


    Diese hervorragende Diskussion von theoretischen und praktischen Fachleuten fasse ich mal so zusammen:
    Scans von real-existierenden Filmen haben real ab ca. 2000dpi (brutto) wegen Scannerrauschen und vor allem Filmrauschen (Korn) nicht mehr als 5-Bit pro Farbe. 16-bit Scans sind also sinnlos. Tatsächlich aber reichen diese 5-Nettobits aus, wenn grössere Korrekturen anstehen, ist es sinnvoll vorübergehend in den 16-Bit Farbraum der Bildbearbeitung zu konvertieren,weil die Ergebnisse besser werden. Für 8-Bit- oder 16-Scans sind die Resultate dann gleich.


    Eine überzeugende Argumentation, die leider von meinem praktischen Experiment widerlegt wird.
    Oder was habe ich falsch gemacht bzw. interpretiert ?


    Jetzt müssen wir im Gehirn doch langsam den grossen Workspace anwerfen.
    Gruesse
    Rainer