Fragen? Antworten! Siehe auch: Alternativlos
Erstens, und das war mir völlig neu, ist schon Film-Technik auf Weiße ausgerichtet, weil eben die Leute, die sich sowas leisten konnten, als das standardisiert wurde in der Anfangszeit, alle weiß waren. Das war denen schlicht wurscht, ob das auch Schwarze gut abbildet.
Faszinierenderweise scheint sich dieser Bias bis hin zur Digitalfotografie erhalten zu haben. Lacher am Rande: Für das südafrikanische Regime hat Polaroid dann Mittel und Wege gefunden, denn die brauchten für die Verwaltung ihrer Unterdrückten Fotos. Und:
Nicht Kodak, sondern afroamerikanische und asiatische Fotografen entwickelten die Technik laut Roth in den späten fünfziger Jahren weiter. Kodak habe sich erst bemüht, Brauntöne chemisch besser einzubinden, als die Kritik an der Bildqualität von zwei für das Unternehmen wichtigen Playern kam: von der Möbelindustrie und von der Schokoladenindustrie.Oh. Mann. Ich hätte angenommen, dass die bloß alle zu doof zum Weißabgleich / ordentlich belichten sind und man diese Art von Problem mit dem Umstieg auf Digitalkameras nicht mehr hat.
Ein anderer Leser schrieb mir, dass Gesichtserkennung bei Männern besser funktioniert als bei Frauen, weil Männer mehr Falten haben. Ich weiß nicht, ob das heute noch üblich ist, aber als ich mich mit Gesichtserkennung und machine learning befasst habe, hat man noch die Daten vorbearbeitet, z.B. mit einer Kantenerkennung. Man wollte damit die "wichtigen" Merkmale betonen und unwichtiges Rauschen wegmachen, damit das neuronale Netz sich nicht an Rauschen aufhängt und Mist lernt. Inzwischen haben sich die Verfahren von neuronalen Netzen ein bisschen weiterentwickelt und das ist glaube ich nicht mehr so hilfreich wie früher, bin da aber nicht mehr so tief drin.
Der Leser bestätigte auch, dass man bei Schwarzen im Allgemeinen nicht genug Kontrast in den Aufnahmen hat, um Falten gut erkennen zu können. Das liegt aber nicht daran, dass es zu wenig Aufnahmen von Schwarzen gibt, im Gegenteil. In den USA sind die "Mugshots", also die bei Verhaftungen angefertigten Fotos, ziemlich frei verfügbar, und die dienen dann den Tech-Bros als Trainingsmaterial. Da sind Schwarze aber sogar deutlich überrepräsentiert, es gibt also keine Knappheit an Fotos. Und an schlechter Beleuchtung liegt es auch nicht.
Aber an der Stelle passen die beiden Einsendungen gut zusammen.
Update: Jetzt kommen hier lauter Leser rein, dass das mit dem "rassistischen Film" Bullshit ist, dass da eine Soziologin ohne Ahnung von Fotografie wilde Theorien aufstellt. Nun, ich habe leider auch keine Ahnung von Fotografie. Diese Schilderung hier erscheint mir allerdings plausibel:
Das Grundsätzliche Problem seit Erfindung der Bildwiedergabe ist es, den Dynamikumfang des menschlichen Auges möglichst original abzubilden. Das ist aber sehr viel schwerer als gedacht. Das Auge ist eben nicht nur die berühmte Camera Obscura sondern mit einem naja, sagen wir “sopisticated” Interpretationsapperat versehen. Wenn Menschen “sehen” machen sie das nämlich bei weiten nicht mit vollem vollem Gesichtskreis sondern sehen nur einzelne kleine scharfe Fokuspunkte die vom Gehirn in “Echtzeit” zu deinem vollen Gesichtsfeld zusammen gerendert werden. Dabei wird auch gefiltert: zb wird dein Nase aus deinem Blickfeld “entfernt” - Aber vor allem wird laufend die ‘Blende’ also die Iris angepasst und ermöglicht es so dem Auge ein unglaublich weiten Dynamikumfang abzubilden.
Das Zusammenspiel von Augen und Hirn um jeweils den Punkt der Aufmerksamkeit perfekt zu belichten, ermöglicht so ein Gesamteindruck mit einem Dynamikumfang von ca 14 Blendenstufen.
Erste kommerzielle Filme hatten einen Dynamikumfang von vllt 2-3 Blendenstufen. Das gute alte Fotopapier - was ja noch in den ’80 gebräuchlich war - hatte ca 5 Blendenstufen.
Erst heute, mit den immer besser und vor allen empfindlicher werdenden Sensoren, haben wir wirklich HDR fähige Aufzeichungsmethoden - Moderne Sensoren kommen auch schon mal auf bis zu 17 Blendenstufen Dynamikumfang.
Zurück zum "Schwarze kommen bei Bildern schlechter weg": Mein Rat ist es sich mal mit einem Hochzeitsfotograf zu unterhalten.
Die Schwierigkeit mit einem guten Farbfilm eine Motiv abzulichten, in dem die eine Hälfte ein Schwarzer Anzug und in der anderen ein Weißes Kleid ist, hat schon manchen Profi verzweifeln lassen.
Auf welche Lichtsituation verteilt man denn dann seine 5 Blendenstufen des Filmmatrials? auf das weiße Kleid? Dann ist der Anzug ein schwarzes Loch…
vis versa.Mit heutigen Kameras ist das deutlich besser geworden - aber auch heute hast du noch Situationen in dem einfach wenig Licht zur Ausleuchtung vorhanden ist und die Kamera kann eben nicht wie das Auge/Hirn jeden Bildbereich einzeln anmessen und getrennt ausbelichten. Man kann halt nur einen Gewichtung vornehmen und hoffen, dass möglichst viel der echten Bildinfos es in den zur Verfügung stehenden Dynamikumfang schafft.
Allein deshalb gibt es ja das ganze Feld des Blendenstacking und HDR Bilder errechnen und Mircotonmapping etc.
IMHO(!) kann man das auch gut sehen - auch auf alten Bildern sind Schwarze gut ausgewogen Abgelichtet wenn sie alleiniges Motiv sind. Die Qualität nimmt rapide ab wenn es gemischt wird oder gar extreme Lichtsituationen sind (Weiße Marineuniformen im WWII zb). Ganz zu schweigen von den berüchtigten 'low cost schnapschüssen' die von absoluten Fotolaien mit billigsten Kameras gemacht wurden, auf denen der Schwarze Partyfreund in der dunklen Partyhöhle plötzlich verschwindet.
Ich nahm an, wenn man jetzt ordentliche HDR-Sensoren bauen kann, dass die dann schon überall drin sein werden. Vielleicht nicht die High-End-Modelle aber so halbwegs ordentlich zumindest. Aber jetzt wo ich da mal herumgoogele sieht das eher so aus, dass man HDR in Software macht. m(