Stimmt. Die Auflösung hängt sowieso von der Lichtwellenlänge ab. Das gilt ja sogar für Spiegeloptiken. Weswegen selbst reine Spiegeloptiken Farbfehler haben. Alleine wegen der Beugung. Dabei können sogar die Form der Beugungsfiguren variieren. Der Effekt ist eigentlich einfach anhand der Betrachtung von Beugungsfiguren zu erwarten. Das wusste sogar Josef Fraunhofer schon vor mehr als dreihundert Jahren. Ein Amateur übrigens, der vorhandenes Wissen weitgehend ignorierte. Glücklicherweise. :-)
In den letzten Jahren erscheinen vermehrt Publikationen hierüber. Es wird deswegen interessant, weil die Astrometrie (Bestimmung von Sternpositionen) inzwischen in den Subpixelbereich vorgedrungen ist. Man kann heute nicht nur Bilder errechnen, die schärfer (und mindestens ebenso kontrastreich übrigens) sind, als das beugungstheoretische Limit, man bekommt wegen der wellenlängen Abhängigkeit eben verstärkt auch systematische Fehler herein. Und nicht nur wellenlängenabhängige Effekte, sondern auch Effekte, die in den Algorithmen selbst begründet sind.
Das Gros der Literatur über Bildverarbeitung geht hier ebenso von völlig falschen Voraussetzungen aus, wie diejenigen, die die vielen existierenden Algorithmen programmierten. Nun wundern sie sich, daß da was nicht stimmt. Ebenso ist es eben schädlich, rein geometrische Optik und eine Beugung als Limit der Auflösung anzunehmen.
Es mutet ja fast schon lächerlich für die professionelle Astronomie an, ein Milliarden teures Teleskop in den Orbit zu schießen und sich dann zu wundern, daß weder Optik noch die Algorithmen funktionieren. Aber dann über Hubble und die Endlichkeit des Universums philosophieren. Das einzige was hier endlich ist, ist das Wissen offenbar schlecht ausgebildeter Ingenieure und beobachtender Astronomen, die eben keine Optiker sind und nur Anwender von Software. Die Programmierer wiederum sind eben selten Optiker oder wirkliche Astronomen. Über kein Teleskop der Welt gibt es soviele Publikationen, die solche Irrtümer dokumentieren. Ähnlich ergeht es ja den Optikern selbst. Es mutet ja fast schon steinzeitlich an, wenn die beigelegte BV Software eines hypermodernen Forschungsmikroskops weniger leistet als Photoshop. Angesichts der vielen Publikationen in der Optik und Informatik frage ich mich, ob man da nicht einen Trend verschlafen hat. Aber so lange alle Optikfirmen so denken, muss ja auch niemand befürchten vom Markt zu veschwinden. Manchen sicherlich hat die Entwicklung schon dahingerafft. Und ich würde mal prophezeien, daß es nicht mehr lange dauert, daß sich die Manager schon überlegen müssen, ob sie es sich mittelfristig noch leisten können, nur noch Optiken zu bauen.
Zur Ehrenrettung aller darf jedoch nicht unerwähnt bleiben, daß die Bildverarbeitung an sich erst mit der Computerrevolution in den Achzigern anwendbar wurde. Man findet halt plötzlich Dinge, über die selbst Shannon noch keine wirkliche Idee hatte. Obwohl er und einige andere wohl bereits viel früher den theoretischen Grundstein digitaler Signalverarbeitung gelegt hatten.
Immerhin kann man das neuerlich gefunden Wissen nun auch auf viel kleinere, bodengebundene Teleskope anwenden. Wenn man das in der Astronomie mal so betrachten würde, dann müssten sich die vielen Wissenschaftler nicht zu Tausenden um wenige Minuten Beobachtungszeit an einem einzigen Teleskop kloppen. Gebt denen einen 8-Zöller in die Hand und erklärt ihnen, was sie damit tun könnten. Aber erzählen Sie das mal angesichts der existierenden Mythen aus dem Mittelalter. Dafür gehöre ich sicherlich auf den Scheiterhaufen. Aber ich kann das eben begründen, wenn ich Aufnahmen mit einem 8-Zöller mit unseren alten Bildern vom 1m Cassegrain vergleiche und zu ähnlichen Reichweiten komme. :-)
Ein Grund, warum ich meine Ergebnisse aus der sicheren Deckung der Informatik heraus publizieren werde. Das ist eine junge Wissenschaft, die keine Probleme damit hat interdisziplinär zu denken. :-)
Thilo Bauer
22-mal bearbeitet. Zuletzt am 01.12.07 10:17.