Vorteile einer Vollformatkamera in der Sternenhimmelfotografie gegenüber APS-C?

3 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Also ich denke es ist grundlegend schon besser, direkt ein rauschfreieres Bild zu haben, statt es per Software rauszurechnen.

Eine Vollformat liefert dir durch die größeren Pixel exaktere Farbwerte, hat dadurch auch höhere Dynamik. Und das Rauschen ist bei gleichem ISO und gleicher Auflösung viel "feiner" und weniger grobkörnig als bei einer APS-C. Siehe hier:

Studio shot comparison: Digital Photography Review (dpreview.com)

Natürlich kannst du das mit einem Objektiv mit höherer Blende ausgleichen und musst im Gegenzug mit dem ISO nicht so hoch. Allerdings geht bei Offenblende auch Auflösung verloren - viele Objektive haben ihre ideale Schärfe erst etwas abgeblendet. Während du mit ner Vollformat einen Sternenhimmel auch noch mit scharfem f/4 hinkriegst, bist du auf APS-C gezwungen, auf Offenblende zu fotografieren, oder der ISO muss zu hoch.

Zweitens hast du durch das lichtstärkere Objektiv nur genau 1 Blende Vorteil, d.h. du kannst den ISO nur 1x halbieren. Eine Vollformat hat aber einen Rauschvorteil von etwa 2-3 Blenden. Also mit anderen Worten, das Rauschen, was eine A6000 auf ISO 800 hat, bekommst du auf einer A7III erst bei ISO 3200-6400.

Also egal wie du es drehst, die Vollformat wird ein merklich besseres Foto schießen, zumindest auf 100% Ansicht. Wenn man das ganze für Instagram oder Facebook fotografiert, ist es relativ egal was man für ne Cam hat.

Woher ich das weiß:Berufserfahrung – Fotografiere in Hobby und Beruf seit 2003

Peruslax 
Beitragsersteller
 10.02.2021, 21:05

Danke für die Info das hat mir wirklich sehr weitergeholfen!

Eine Sony Alpha 6100,6400,6500,6600 kosten alle mindestens über 750 Euro biss hin zu über 1000 Euro ! Für 1000Euro + bekomme ich jedoch schon eine gute gebrauchte Nikon Z6 ! Ich finde die Auswahl lichtstarker Weitwinkelobjektive beim Sony e Mount sehr begrenzt! Das Samyang 12mm f 2.0 müssen viele ein wenig abblenden damit es richtig scharf wird was die ISO stark nach oben treibt. Würdest du fürs Vollformat dann eher eine Lichtstarke Festbrennweite empfehlen wie das Sigma 20mm f 1.8 oder gleich ein gutes Zoomobjektiv mit dem man Brennweitentechnisch flexibler wäre wie das Sigma 14-24 f 2.8 oder das Tamron 17-28 f 2.8??

Uneternal  10.02.2021, 21:21
@Peruslax

Festbrennweite ist immer schärfer als ein Zoom und halt auch günstiger. Kommt halt auf dein Budget an und wie flexibel du sein willst. Die Sigma Art Objektive sind aber generell alle ziemlich scharf, das Zoom dürfte einen Tick schärfer sein als Tammy und Sigma ist ebenfalls für guten Kontrast bekannt.

Peruslax 
Beitragsersteller
 10.02.2021, 21:28
@Uneternal

Also laut mehreren Testungen die ich durchgelesen habe wäre das Sigma Zoom Objektiv bei f 2.8 fast so Scharf wie die Festbrennweite und ist dazu gut auf Koma korrigiert! Das Budget ist da. Also wäre eine F2.8er Blende völlig ausreichend am Vollformat?

Uneternal  10.02.2021, 23:49
@Peruslax

Auf jeden Fall, also ich habe schon Sternenhimmel mit f/5.6 geknipst. Dann ca. 20 Fotos zusammengerechnet mit Sequator.

Hallo

  • was hat das jetzt mit Astrofotografie zu tun ?
  • eine a7 hat bei ISO 400, eine A7III bei ISO 1600 und eine a7s bei etwa ISO 3200 die "Bildqualität" einer a6000 bei ISO 100 (In Bezug auf der Full-Well Linie). Aber der BSI Sensor der a7II rauscht anderst und bleibt länger ohne Banding. Wenn man die Sensoren kühlt profitiert die a6000 davon am meisten die rauscht dann auf Höhe der a7
  • Man beachte die Stareater Problematik der Sonys und denn 12 Bit RAW BUG der a6000 bis a7II wodurch die Sonys nicht "Astrotauglich" sind aber dass ist wohl Absicht von Sony als grösster Anbieter von Astrosensoren. Und wenn man eine Sony Industriekamera mit Kleinbildsensor kauft gibt es kein "Stareaten" oder RAW Bug. Sony kann es..
  • ein für UWW Deepsky Sternenfotos brauchbarer Federwerk- oder Fallgewicht Tracer für 1kg Kameras kostet um 50€ aufwärts bzw geht per Eigenbau.
  • Stacking hat Vorteile und Nachteile und da ist die frage was soll am Ende dabei rauskommen
  • Die Lichtstärkengaben also die Blendenwerte sind keine Aussage zur Bildqualität einer Optik nicht mal deren "Lichtstärke" weil die Transmissionsleistung ist ein anderes Thema und meist schlechter als die Blendenwerte suggerieren
  • Zoomoptiken neigen zu Bildfehler speziel am Rand (Astigmatismuss/Coma) und muss man denn meist 1-2 Stufen abblenden das ist wegen der Vignetrierung eh meist zwingend nötig. Plus die Zooms sind meist nur im Mittelbereich gut/sauber das Tamron RXD 17-28/2.8 ist jedoch dafür zwischen 20-24mm recht tauglich wobei auch bis 18mm bei Offenblende noch im Postprozess hinbiegbar ist
  • Es gibt für Sternenhimmelfotos zb das Tokina ATX 14-21/2 oder das Sigma Art 24-35/2 als dafür brauchbare Zooms

Peruslax 
Beitragsersteller
 10.02.2021, 17:10

Hallo ! Danke für deine Erklärungen :)

Ich hätte wohl in meine Frage dazu schreibe sollen, dass es mir um Sternenhimmelfotos geht und nicht darum mit Hilfe von Nachführung Deep Sky Objektive zu Fotografieren. Daher Spielt die ISO Empfindlichkeit in meinem Fall schon eine Rolle.

IXXIac  10.02.2021, 20:07
@Peruslax

Hallo 

Sternenhimmelfotografie ist im Prinzip technisch Deep Sky Fotografie aber sobald man einen terrestrischen Motivanteil hat ist die Verschlusszeit begrenzt und man muss die Materialschlacht auffahren oder "tricksen" (Composen/Photoshopen/Stacken). Es gibt aber Kameras die intern in Echtzeit Composen/Stacken (Olympus M1/M5/M10/PenF Typen)

Für Sternenhimmelfotografie ist der Sensor und die Optik wichtig bzw die Hauptaspekte aber man kann nicht einfach generalisieren das Kleinbild "Besser" ist weil es Kleinbild ist also doppelt soviel Fläche hat sondern man muss sich die realen Leistungen ansehen und das passende Kombinieren,,, ausser man hat ein fettes Budget und kauft nur das "Beste" also zb eine Sony UMC S3CA und Sigma 14/1.8 Art (Wenn auch viele das Samyang XP 14/2.4 als besser einstufen weil die Überkorrektur die Sternpunkte um ca 50% "aufbläht" andere wollen Lieber denn Nadelpunkt speziel wenn man einen 45MP+ Sensor hinter der Optik hat und das per Fineprintausdruck "plastisch" wird)

Die a6000 ist ein "Oldtimer" von 2013 und die Sensorleistung wurde schon von Fuji, Pentax und Nikon deutlich überholt während Sony bei der a6000 Serie die High ISO Fähigkeit nicht verbesserte weil man ja immer noch deutlich vor Canon war/ist und man lieber A7 Kameras verkauft und mehr Geld verdient. Zudem "kostet" der Autofocus Bildqualität.

Der Punkt ist ein Upgrade auf einen a7 Body kostet um 500€ Body plus Optik. Ein Upgrade auf Fuji X T 20 kostet auch um 500€ aber man kann die vorhandene Optik umbauen. Der Trans X Sensor ist im Bereich der Kleinbildleistung (Saubere ISO 800) und ist unmodifiziert "Astrotauglich" (Alpha H Sensibel) und Sequator kann RAF direkt handhaben. Und Sequator ist mW immer noch Freeware.

Aber natürlich wird eine Sony a7III in Kombination mit einem Laowa 15/2 Zero-D FE deine bisherige Kombination Leistungstechnisch deutlich übertreffen bzw die Verschlusszeiten bei der selben Bildqualität um denn Faktor 8 bis 12 verkürzen

Bei "Astrofotografie" erzeugt man Bilder zur wissenschaftlichen/technischen Auswertung dafür sind schon mal CMOS Sensor eher "Exotisch" bis Untauglich und vor allem aus Fotokameras mit Tiefpassfilter und Begrenzung auf das VIS Lichtspektrum und einem Bildprozessor der kein echtes TIFF ausgibt.

Gut gedacht, aber nicht weit genug.

Das Rauschen hängt von der Größe der einzelnen Pixel ab. Bei gleicher Auflösung sind die Pixel bei den Vollformat-Kameras größer. (Besonders groß bei den Sony A7S-Reihe, aber auch besonders teuer).

Demzufolge hast Du bei den von Dir genannten Objektiven keinen echten Vorteil durch das Vollformat.

Und ich würde bei Astrofotografie auf jeden Fall bei Festbrennweiten mit möglichst großer Öffnung bleiben, weil Du damit eben die beste Schärfe (und die kleinsten Beugungseffekte) erreichen kannst.

Woher ich das weiß:Berufserfahrung

Peruslax 
Beitragsersteller
 09.02.2021, 22:17

Danke für deinen Kommentar!

Jedoch verstehe ich nicht ganz warum ich bei meinen genannten Objektiven keinen echten Vorteil durch das Vollformat hätte.

F2.8 entspricht doch in etwa f1.8 an APS-C und wäre somit ähnlich Lichtstark, jedoch könnte ich beim Vollformat bei gleicher Pixelanzahl mit der ISO deutlich höher gehen, was schon ein großer Vorteil wäre.

Ich frage mich aber, ob man ein verrauschtes APS-C Bild mithilfe von Stacking auf "Vollformat-Niveau" bringen könnte?

BurkeUndCo  09.02.2021, 22:22
@Peruslax

Letzteres funktioiniert definitiv.

Ist halt nur eine Frage der Bildanzahl Um die doppelte Iso-Zahl zu erzeugen brauchst Du auch die doppelte Anzahl Bilder. Allerdings steigt bei den meisten Kameras mit zunehmender ISO-Zahl auch das Rauschen.

Beim ersten Punkt hast Du recht. Aber da die meisten Vollformat auch mhr Pixel haben, hast Du eher ein größeres Bildfeld zur Verfügung.

IXXIac  10.02.2021, 00:49
@Peruslax

Hallo

Die Blendenwerte werden nur um ausrechnen der Schärfentiefe gebraucht das sind keine Angaben zur "Helligkeit". Eine Blende f2.8 (bzw T2.8) ist rechnerisch immer gleich "Hell" egal was dahinter ist.

Der Sensor der a6000 war schon 2014 über "Vollformat Niveau" und zwar der Sony a850, Sony a900, Leica M9, Canon 5DII und auch die Nikon D3x und Canon 5DIII hat Sony "angenagt" bzw egalisiert.

Sony hatte Pech das Nikon mit der D5300 mit dem Toshiba Sensor eine noch grösseren Sprung machte und durch die Fachpresse ging weil die D5300 hat die damals aktuellen 24MP Kleinbildsensoren überholt also D600, a7, a99, 5DIII.

Also bevor man sich lächerlich macht mal die realen Fakten checken die Sensorgrösse ist primär eine "Marketinggrösse" und keine Aussage zur Leistung.

Ein "Sensel" hat zur Zeit etwa 1/10000mm Grösse der Eigentliche Photonen Detektor ist sogar noch mal 10x kleiner und jede Generation wird noch kleiner. Insofern könnte man 24MP mitsamt der Verdrahtung bei 70 Nanometer und BSI Technik auf 4x6 mm packen bzw man macht dass ja schon länger für Smartphonekameras. Ob der Senselträger dann 18x24mm oder 24x36mm gross ist verbessert nur das Wämeabstrahlverhalten und senkt das Kanalübersprechen aber dasss ist ein Problem der CMOS Technik bei CCD ist das handhabbar (Siehe Sony Pregius Typen)

BurkeUndCo  10.02.2021, 20:31
@IXXIac

Gut gemeint und viele gute Infos. Aber manche Punkte stimmen halt nicht ganz.

Ein Sensorpixel mit 1/10000 mm (Pixel-Pitch) gibt es bis heute nicht.
Selbst die besonders kleinen Pixel der HIgh-End-SmartPhone sind größer als 1 µm (= 1 / 1000 mm). Da hast du irgendwie mindest eine "0" zuviel erwischt.

Bei meiner 24 MPixel Vollformatkamera (Sony A900) waren die Pixel ziemlich genau 6 µm groß. (6 µm x 6000 = 36 mm, 6 µm x 4000 = 24 mm)

Die neueren Vollformatkameras mit 42 MPixel haben Pixel im Bereich um 4 µm (geringere Empfindlichkeit dafür BSI).

Die Sensoren der 2. Pregius-Reihe, die besonders gut sind, haben Pitch-Werte von 3,45 µm.

Soviel zur Klarstellung Deiner Sensoraussagen.

BurkeUndCo  10.02.2021, 20:47
@IXXIac

Aussagen zur Blende (auch noch ein paar Anmerkungen aus der Sicht des Sensorik-Ingenieurs):

Dass der gleiche Blendenwert die gleiche Beleuchtungsintensität auf der Bildebene erzeugt ist richtig. Trotzdem hat Peruslax mit seiner Denkweise prinzipiell recht:

Wenn Du beim Vollformat die größere Brennweite verwendest um das gleiche Bildfeld zu erhalten (Crop-Faktor), dann hat die gleiche Blendenzahl (eben da bezogen auf die Brennweite) eine größere Blendenöffnung. Diese liefert dir dann die gleiche Flächenhelligkeit (= Intensität in der Bildebene), denn das LIcht wird ja dann auch auf die größere Sensorfläche verteilt - hier hat IXXIac durchaus recht. Und wenn die Pixel jetzt gleich groß wären, dann wäre auch das Rauschen (bei gleichem Stand der Sensortechnologie) gleich. Da Peruslax aber einen Sensor mit der gleichen Pixelanzahl nehmen will, sind die Pixel größer. Jedes Pixel sammelt mehr LIcht ein und rauscht dadurch weniger stark.

Besonders deutlich wird das bei der Sony A7S, die trotz Vollformat nur 12 MPixel hat, also etwa 9 µm PixelPitch. Da ist dann die Fläche pro Pixel natürlich doppelt so groß, wie bei einer Vollformatkamera mit 24 MPixeln.

Und das Photonenrauschen (ohne den Anteil des Elektronikrauschens) geht halt mit der Wurzel aus der Fläche. Demzufolge bekommt man bzgl. der ISO-Qualität den Faktor 2 dazu.

Das ist bei dem Preis der Kamera nicht übermäßig viel, aber zaubern kann keiner, und 1 Blendenstufe empfindlicher (bringt auch den Faktor 2 mehr Licht) ist auch bei Objektiven eine Qualitätsverbesserung, die bezahlt werden muss.

IXXIac  11.02.2021, 14:53
@BurkeUndCo

Hallo

Mein Arbeitgeber macht (ua) Machine Vision bzw wir sind in der Vorentwicklung/Prototypenbau/Prüffeld der Hardware und machen Troubleshooting/Befundung/Zweitexpertise, ich bin kein "Sensoriker" (Pun intendet)

1.) es geht um die Photodiode/Senselgrösse diese sind im Nanometerbereich. Pixelpitch gibt an welchen Mittenabstand man zwischen denn Sensel hat bzw wie Gross maximal die Vorsatzlinse und Trichter vor dem Sensel ist und dass ist noch im Mikrometerbereich. Die CMOS Sensel/Photodioden sind zur Zeit um 100x200 Nanometer gross der Lichtspalt bzw Detektor ist abhängig zur Wellenlänge noch kleiner und technisch noch eine Problemzone aber da kommt ja die Quanten Dot Technik und die Organische Sensortechnik soll final auch auf 1 Nanometer Rasterung kommen. Was dazu noch fehlt ist die Litho und die Steppertechnik (zu Zeit 7nm demnächst wohl 4nm). Die Transistorschaltung ist bei BSI quer hinter dem Sensel bzw auf der Unterseite also kann man Theoretisch die Senelgrösse als Mindestgrösse annehmen. Bei der alten FSI Sensortechnik muss man ja noch die Transistoren und Verdrahtung neben denn Photodioden anordnen bei Sony Exmor Erstgeneration mit A/D Wandlung direkt an der Senselgruppe waren um 80% der Fläche für die Verwaltung, die Photodiode selber hatte um 500nm und darüber kommt dann die keisrunde Mikrolinse in maximal 6 Mikrometer. Die Senselstruktur und die Transistorschaltung drumrum sind beim IMX0128 und beim IMX193 gleich gross/identisch. Der APS-C Sensor hat halt eine dichtere Packung und nur um 4Mikrometer Linsendurchmesser

2.) zur Zeit sind die Mikrolinsentechniken der limitierende Faktor beim, Sensorpitch, da ist bei 1/500mm (2Mü) Schluss bzw alles darunter ist nur per Kleinserie umsetzbar die a7R Typen haben zb solche Mikrolinsenarrays von Zeiss. Aber Omnivision kündigte letzten Monat einen Sensor mit 0,75 Mikrometer Pixelpitch an aber so wie sich das liesst haben die 4 Pixel unter einer Mikrolinse mit 1,5 Mü (DPF/Pixelbinning)

Ich hab vor etwa 3 Jahren ein Smartphone Kameramodul mit 1/8" UHD imager (um 2mm Horizontal) als Proof of Concept gemessen, Verdrahtung in 130 Nanometer Kupfer und Quantum Dot Technik mit unterschiedlich grossen Senselspitzen abhängig vom Lichtspektrum (Wohl 2 Nanometer für Blau bis 32 Nanometer für Rot). Das ist um 1 mü Pixelpitch. Und das Ding hat auch auf einem Siemensstern FHD aufgelöst und zwar Diagonal. Der Sensor ist irgendwann Produktionsreif. 2 Mikrometerpitch in Grossserie sind zb die Sony IMX 334 und 335 schon seit 2016 kaufbar und der Sony "Fahrplan" ist 1,5 Mikrometer. 1,75 wurde wohl schon erreicht

3.) die IMX028 24MP Sensoren in a850/900 haben zwar einen Pixelpitch von 6mü aber nicht die volle Fläche für denn Lichttrichter genutzt die hatten um 5 mü Durchmesser und nur um 2/3 der Fläche zum Lichtsammeln genutzt. Aber das Problem kam auch von der Bayer Matrix darüber. Erst der modifizierte IMX028 Sensor in der Nikon D3X hat 6 mü Linsentrichter in Kreisform und die Nachfolger (IMX128 a99/a7/VG900/D600) bekamen eine Oktagon Form mit fast 90% Flächennutzung. Canon konnte dass zb erst ab der 6D/5DIV. Aber der IMX028 war bei Sony als Exmor Typ mit ADC Wandlung und Verwaltung direkt neben den Sensel anderst aufgebaut als die Nikon Version mit AD Wandlung am Ende der Datenbus, bei Sony hatte man nicht soviel Platz für denn Trichter wie bei Nikon. Der Grund war Sony verbaute schon einen "Videosensor" mit hohen Datenraten und Nikon verbaute noch einen Standbildsensor. Das Sony ADC konnte nur 12Bit und in KHZ Bandbreite, Nikon konnte 14Bit in MHZ Bandbreite. Die Minolta 9er Serie war ja mal als modulare "Wechselsucherhybridkamera" geplant a850/900 waren ein Schnellschuss bzw Zwischenschritt. Der Nikon Sensor fängt zwar mehr Licht ein aber durch die lange Analogverdrahtung rauschte der sauf ähnlichem Niveau so nur eben anderst auch FullWell ist anderst

4.) Bei Cropfaktorumrecherei geht es nur um denn Look und nicht die Belichtung. Die Lichtmenge vor der Optik ist immer die selbe völlig egal welche Optik das einfängt und wie gross der Sensor dahinter ist also es ist nicht SO dass ein Kleinbildsensor die doppelte Lichtmenge von einem APS-C Sensor und die Vierfache von einem mFT Sensor bekommt weil man eine "grössere" Kamara hat und die Sonne dann mal lokal mal mehr Photonen runterschickt.

Also ist der erste Parameter wieviel Licht lässt die Optik durch und mit welcher Homogenität ausserhalb der 0 Achse. Das wird als Transmissionswert gemessen/definiert. Der Blendenwert ist nur die Angabe des Pupillenverhältniss der Apertur und kommt aus der Frühzeit als man Lichtmengen mangels Sensorik nicht zählen konnte und sich an Scheiner Werte hielt. Und das war auch bis 1900 tauglich weil es bis dahin keinen "schnellen" Emulsionen gab und die Belichtungszeiten im Minutenbereich stattfanden. Bis Weston wurde die Belichtung mit einem Kino-Filmstreifen hinter eine Graustufenreihe oder Rotationsscheibe gemessen die dann entwickelt wurden. Aus so einem Teil wurde die Leica entwickelt.

BurkeUndCo  11.02.2021, 22:06
@IXXIac

Zitat: "Mein Arbeitgeber macht (ua) Machine Vision bzw wir sind in der Vorentwicklung/Prototypenbau/Prüffeld der Hardware und machen Troubleshooting/Befundung/Zweitexpertise, ich bin kein "Sensoriker" (Pun intendet)"

Sorry, aber dann solltest Du mal in Deiner Firma mit jemandem reden, der etwas von Sensorik versteht. Gut, ich habe es leicht, bei diesem Thema den Oberlehrer zu spielen, denn ich mache das jetzt wirklich 40 Jahre lang (praktisch seit meiner Diplomarbeit auf diesem Gebiet).

Wenn das so wäre, wie Du in Punkt 1 schreibst, dann wären die Photosensoren blind wie ein Maulwurf. Schon allein beugungsbedingt ist es nicht möglich Licht auf kleinere Punkte zu fokusieren als die Wellenlänge. Und die liegt beim sichtbaren Licht so im Bereich zwischen 0,4 und 0,8 µm. Alles was dann im Bereich von 0,1 µm, oder gar noch kleiner ist, das kannst Du vergessen.

Das - also die Beugung - gilt auch bei den Mikrolinsen (Lichttrichtern), denn die Grundlagen der Beugungsoptik lassen sich auch mit diesen Mitteln nicht überlisten.

===> Kannst Du leicht nachlesen unter PSF, Airy-Scheibchen, oder ganz allgemein Beugung.

Dass bei den normalen Dezektorpixeln nur etwa 2/3 der Fläche zum Sammeln des Lichtes verwendet werde ist korrekt --- der Rest wird von der Ausleseelektronik der einzlnen Pixel geschluckt.
Dass aber dann eine größere Fläche - die Vergrößerung von 2/3 auf das Ganze etwas brachte, sieht man an der Empfindlichkeitssteigerung der BSI-Detektoren, denn da fiel genau der Anteil der Elektronik weg, bzw. kam auf die andere Seite des Sensochips. Schon allein das zeigt, das ein größerer Teil des Pixels für die Lichtaufnahme verwendet wird, als Du vermutest. Wäre es so, wie Du es beschreibst, dann wären BSI-Detektoren nicht empfindlicher als die FSI-Sensoren.

zu 2.) Ja, Omnivision baut Sensoren mit Pixel von knapp unter 1 µm (Immer noch deutlich größer als 100 nm). Und das sind keine Pixel für 4-fach Binning (das schalten sie nur bei Dämmerungsaufnahmen hinzu), und demzufolge sind auch die dort eingesetzten Mikrolinsen in dieser Größenordnung.

Nachdem hier ein paar Aussagen richtig waren, kommt nun wieder etwas Unsinn: "(Wohl 2 Nanometer für Blau bis 32 Nanometer für Rot)" Auch das ist ein klarer Widerspruch zu den Grenzen der Optik.

Anmerkung: Genau deshalb macht es ja Probleme entsprechend kleine Strukturen mittels Lithografie herzuszellen. Dazu reicht das sichtbare Licht definitiv nicht aus, sondern es ist extremes UV-Licht mit netten Tricks in der Lichterzeugung (ja, das gibt es bisher nur von Zeiss und kostet nicht ein paar Millionenen sondern etwa 1 Milliarde ---- gibt aber auch nur wenige Kunden dafür. Wen wunderst's bei diesem Preis?)

Bei Punkt 3 ist wieder einiges richtig.

Die älteren Sensoren (FSI) hatten die Ausleselektronik auf der Belichtungsseite, wurde ja oben schon diskutiert.
Die nächste Generation hatte die Ausleselektronik auf der Rückseite, deshalb praktisch 100% Fläche für das Lichteinsammeln.

Dafür strotzt die Info über die ADCs mal wieder von einigen Missverständnissen.
Die Sony-FPA haben eine (teils 2) Zeilen von AD-Wandlern an den Längsseiten des Detektorarrays (Nicht in den einzelnen Pixeln), deshalb, weil es gleich mehrere 1000 ADCs sind, können sie langsamer arbeiten und trotzdem die gleiche Bildrate erreichen. Diese ADCs haben eine andere Wandlertechnik als die klassischen ADCs und erreichen wirklich fast ihre nominelle Auflösung. Bei den schnelleren ADCs (wie z.B. bei Nikon) , die sreiell alle Pixel des Bildes digitalisierten, kann mann immer 1 Bit streichen (im Regelfall sogar 2) weil diese ADCs zwar diese Anzahl Ausgangs-Bits haben, aber deutlich mehr rauschen als ein theoretischer ADC mit dieser Auflösung.

In Punkt 4 demonstrierst Du jetzt endgültig, dass Du wirklich keine Ahnung von Optik hast. Die Blendezahl gibt das Verhältnis von Brennweite und Öffnungdurchmesser an. (Das ist seit über 100 Jahren so genormt.)

Demzufolge ist bei gleicher Blendenzahl der Öffnungsdurchmesser bei doppelter Brennweite doppelt so groß, die Fläche des Lochs e-mal größer.

Demzufolge ist für das gleiche Bildfeld beim Vollformat relativ zum MFT-Sensor (Faktor 2 in der Kantenlänge des BIldes) die doppelte Brennweite nötig. Bei dem gleichen Blendenwert fällt dann durch die 4-fach größere Blendenöffnung auch 4-mal soviel Licht.

.

Zusammenfassung:
Gut gemeint, und einige richtige Ansätze.
In der Summe aber vieles nur halb oder falsch verstanden. Also bitte nochmals bei Dir in der Firma mit jemandem reden, der tatsächlich nicht nur etwas Ahnung davon hat (Ahnung von vermuten und ahnen), sondern wirklich zumindest die Grundlagen kennt. (Kenntnisse = Wissen).

Sorry, aber so ist es halt nun mal.

Hier: Gut gemeint, aber leider inhaltlich falsch.

Wärest Du bei mir in der Firma, würde ich mir den halben Tag Zeit nehmen um zumindest mit den gröbsten Fehlern aufzuräumen, aber hier .....
Da kommt dann nur die Meldzung, dass dieser Kommentaer schon zu lange ist.