**********tbeat:
Rot ist nach wie vor eine Problemfarbe für digitale Sensoren, aber auch analog nicht viel besser.
Wie kommst Du zu dieser Aussage? Subjektive Wahrnehmung oder hast Du eine Erklärung dafür?
Zunächst einmal: Unsere Welt hat keine "Farben". Unser Auge trennt gewisse Wellenlängen auf drei verschiedene Rezeptoren auf und damit entsteht eine subjektive Wahrnehmung von Farben. Ob ich meine Umwelt genau so sehe wie Du werden wir nie herausfinden - wir haben uns gesellschaftlich darauf verständigt was "rot" und was "blau" ist.
In der Kameratechnik werden Farben dadurch simuliert, dass man Filter über die Silizium Pixel legt und bestimmte Wellenlängen abschneidet. Der Nachteil ist, dass jeder Pixel nur eine "Farbe" sieht und die anderen zwei "Farben" über Interpolation der Pixel daneben bildet (sog. Bayer Pattern). Eine 12MP Kamera hat damit was die Farbqualität angeht im Grunde genommen nur noch rund 5MP.
Silzium selbst ist gerade im roten Bereich weit empfindlicher als das Auge - siehe hier
https://www.altairastro.com/ … ctral%20Response%20Graph.JPG
Wenn Du Probleme im roten Bereich hast würde ich mir daher den IR Cut Filter Deiner Kamera genau anschauen und ggf. einen weiteren Filter vor das Objektiv setzen. Vor allem weil die Gelfilter auf dem einzelnen Pixel nie so gut sein können wie Hard-Dichroic Filter auf Glas. Daher auch das grausame Bild der verschiedenen Farbkanäle im Bild oben.
In der professionellen Großformatdigitalfotografie werden nicht umsonst Kameras eingesetzt, die das Licht auf drei Monochrome Sensoren über ein Prisma aufsplittet. Das wird hier gut erklärt auch wenn es um Produktionskameras geht:
Gruß teaki