1. Zwischen den Pixeln gibt es bei Digitalkameras so gut wie nicht, denn die Stege zwischen den lichtempfindlichen Flächen sind nicht relevant, weil sich über der Pixelebene eine Mikrolinsenscheibe befindet, die das ohne diese Scheibe auf die Stege fallende Licht in die lichtempfindlichen Flächen leitet.
2. Der durch Abtastung mit einem minimal verschobenen Sensor (Micro-Shift bei früheren Digital-Rückteilen von Profikameras, entwickelt bei Kontron und dort sowie später bei Jenoptik realisiert) gewonnene Auflösungsgewinn ist mir sehr wohl bekannt, aber ich weiß auch, daß er nur dann gewinnbringend genutzt werden kann, wenn diese verschiedenen Bilder zu einem neuen
Stehbild zusammengesetzt werden. Das tut das Auge sogar auch, und zwar mittels sogenannter Mikrosakkaden, sogar beim unbewegten Motiven! Es funktioniert jedoch nur über eine sehr kurze Integrationszeit und auch nur deshalb, weil das Gehirn die von den Sakkaden verursachte Ortsveränderung des Bildes auf der Netzhaut kennt und herausrechnet. Bei einer heftigeren Bewegung, wie sie durch irreguläres, nicht vom Gehirn gesteuertes und deshalb nicht von ihm herausrechenbares Handzittern bei der freihändigen Fernglasbeobachtung entsteht, funktioniert das leider nicht. Oder hast Du schon mal bemerkt, daß das Bild schärfer wird, wenn Du stärker zitterst? Da wird die Abweichung eines Bildes vom vorhergehenden Bild als Bewegung interpretiert, und da diese vergleichsweise sehr heftig ist, kommt es dann auch zu Verwischungseffekten, die sich negativ auf die Detailerkennbarkeit auswirken.
Jetzt muß ich mich aber wieder ausklinken und weiterarbeiten, auch wenn Du weitere nicht zutreffende Gegenargumenten vorbringen solltest. Ich denke, daß jeder an der Aufklärung dieser Effekte interessierte Leser auch anhand meiner bisher vorgebrachten Argumente erkennen kann, wer von uns beiden auf dem Holzweg ist.
Walter E. Schön