Hallo Herr Fremerey und Herr Nacken,
ich finde es spannend, dass diese Diskussison nun auf den Punkt kommt. Ich hatte im Hintergrund meinen lieben Herrn Geyer kürzlich angefunkt und er lud mich ein, meinen Beitrag zu leisten. Es geht - wie könnte es anders sein - um den Bau von Großteleskope und Reichweiten.
Ich habe schon in meinem Testbericht einige Anmerkungen hierzu fallen lassen. Auch einen Hinweis auf ein älteres Manuskript von Herrn Geyer, das er mir einmal zur Verfügung stellte. Die Theorie dieses Manuskripts ist zwar aus meiner heutigen Sicht didaktisch wenig förderlich, doch das theoretisch errechnete Resultat entspricht in etwa unseren tatsächlichen Erfahrungen am Hohen List. Wir hatten damals Aufnahmen mit ähnlichen Detektoren unter unterschiedlichsten Bedingungen mit sehr unterschiedlichen Optiken aufgenommen. Wir versuchten mit den damals bescheidenen Flächenelementen der frühen CCDs Wide-Field Imaging zu betreiben und versuchten uns an der Anpassung verschiedenster Optiken. Es gibt sogar noch eine Publikation eines recht hilflosen und eigentlich missglückten Versuchs von mir auf einer Tagung der Astronomischen Gesellschaft, eine Schmidt-Kamera umzurüsten. Zeitgleich entwarf ich die frühen Stacking Algorithmen. Sowohl unsere Ergebnisse mit dem 1m Cassegrain, als auch die Aufnahmen mit einer wesentlich kleineren Fotooptik, ein 180mm Sonnar, das wir später als optisches Glied im Fokalreduktor des 1m Cassegrains einsetzen und so vorab testen wollten, brachten in etwa die gleiche Reichweite. Dies deckt sich in etwa mit meinen heutigen Aufnahmen mit dem VC200L.
Wie ich am Ende meines Testberichts anmerkte, besteht die theoretische Lösung darin, daß die Reichweite nur von dem Verhältnis zwischen Detektorauflösung (Pixelgröße) und Brennweite abhängt. Ein interessantes Ergebnis, da die Öffnung der Optik keine Rolle mehr spielt. Soviel zum Mythos, der von uns schon längst beerdigt wurde.
Tatsächlich haben wir es unter Seeing-begrenzten Bedingungen mit einer Flächenhelligkeit von Sternen zu tun. Das Ergebnis ist daher auch wenig überraschend. Schon in den Siebzigern und Achtzigern gab es auf dem Sektor der Amateurastronomie mit Filmemulsionen ähnliche Aussagen. Selbst Reichweiten auf Aufnahmen mit einfachen Weitwinkel- oder Normalobjektiven erzielten durchaus 19. bis 20. Größe bei Belichtungszeiten, die denen eines 5m Palomar Teleskops entsprach und damit vergleichbar blieben. Also gehen Theorie und Praxis wohl konform.
Wie man nun die Lücke nicht seeing-begrenzter Optiken mit kurzen Brennweiten unter solchen Umständen erklärt, ist eigentlich einfach. Diese Fotooptiken bieten zwar ebenfalls immer beugungstheoretische Auflösung, doch die eingerechneten Restfehler der Optiken liegen in einer Größenordnung über dem theoretische Auflösungsvermögen - und vor allem über der Detektorauflösung (egal ob Film oder CCD). So gibt auch Vixen (nicht ganz überraschend) die fotografische Auflösung so an, daß man eigentlich nicht von beugungstheoretischer Auflösung ausgehen muss, nämlich mit etwa 15 Mikrometer. Das sind Restfehler aus optischen Unebenheiten, Streulicht und nicht korrigierten Fehlern der Optik. Alles im Ramen der Fertigungstoleranzen. Dennoch erkennt man Beugungsfiguren der Sterne und die Abbildung ist scharf. Vixen ist übrigens so ehrlich heute keine fotografischen Reichweiten mehr anzugeben. Ob Vixen unser Wissen bekannt ist, ist mir jedoch nicht bekannt. :-)
Man sieht, daß die Beugungsfiguren also offenbar unbedeutend sind, um eine Reichweite hieraus zu schlußfolgern. Doch muss man selbst eine beugungstheoretische Figur als ein Flächenobjekt betrachten. Daraus ergibt sich somit, daß die Theorie und die Praxis in jedem Fall übereinstimmen müssen.
Zudem muss man übrigens anmerken, daß die eigentliche Grenze sogar durch den Himmelhintergund und spätestens durch das Photonenrauschen des natürlichen Airglow begrenzt wird. Einziger Ausweg für alle Teleskope: lange Belichtungszeiten, so daß Sterne (und andere Flächenobjekte) über 3 Sigma der Rauschquelle liegen. Man muss also in aller erster Linie das natürliche Rauschen glätten, um die Reichweite zu erhöhen.
Carsten Nacken schrieb:
-------------------------------------------------------
> Wenn das Seeingscheibchen ein Zentrum hat, dann
> kann ich doch mit einer einfachen Funktion die
> Werte der benachbarten Pixel dem Zentrum zuordnen
> bis der beugungsbedingte Durchmesser=
> Airyscheibchen erreicht ist. Die benötigte
> Funktion schreibe ich Ihnen in zwei Stunden.
> Ãœber Filter entscheide ich, welche Scheiben ich
> nicht anfasse, damit ich nicht aus Doppelsternen,
> Nebeln und Kugelsternhaufen einzelne Sternpunkte
> fabriziere. Eventuell unter dem Scheibchen
> verborgene Objekte sollten sich durch die
> Asymmetrie des Scheibchens bemerkbar machen und
> werden nicht angetastet.
> Carsten Nacken
Gute Idee. Das Problem ist, daß wir kein "Zentrum" finden. Das System ist komplizierter als man annimmt. Dieses Phänomen ist als Shannon Theorem bekannt. Ich habe zwischen 1994 und 1997 Simulationen gerechnet, die ich meinen damaligen Kollegen vorführte, um ihnen zu erklären, warum ihre astrometrischen Auswertungen keinesfalls unter 1/10 Pixel kamen. Der Grund: es gibt systematische Abweichungen bedingt durch die flächige Form der Pixel. Pixel als Punkte anzunehmen, führt also zum Sampling Theorem. Dennoch kann man hochpräzise Messen. Eine neuere Arbeit von Anderson und King drückt das für mich überraschend so aus: "We were shocked by the size of the trends, which are comparable to or larger than the accidental error."
Für mich wenig überraschend, da ich es bereits 8 Jahre früher wußte und in einer kleinen Runde vor meinen Kollegen vortrug. Eigentlich kam es als ein Ergebnis von Überlegungen zur Genauigkeit, mit der man die Lage von Spektrallinien in Spektroskopen messen könnte, heraus. Meine früheren Kollegen von Herrn Geyer waren da nämlich noch nicht so erfolgreich und konnten sich große Diskrepanzen und Messfehler bei der Messung von Radialgeschwindigkeiten nicht so recht erklären. Mein Ergebnis für die Astrometrie war also eigentlich ein "Unfall" und ich verstand danach erst, was Shannon meinte. Doch ging ich in meinem jugendlichen Leichtsinn wenigstens von den richtigen Voraussetzungen aus, wie ich heute weiß. Über die Bedeutung meines Ergebnisses bin ich mir jetzt erst im Klaren. Denn ich habe gefunden, was Shannon schon wusste und darüberhinaus einiges mehr. Doch ich schätze, daß das Gros der Astronomen wie meine damaligen Kollegen heute noch glaubt, man müsse die Sterne nur groß genug aufblasen, um präzise zu messen. Ebenfalls ein Trugschluß, den meine damalgen grafisch dargestellten Ergebnisse leicht widerlegen konnten. Schätze jedoch, daß man es nicht verstanden hat. Eine Frage der Didaktik. Ich arbeite daran. :-)
Faktisch kann man die Lage von Sternörtern (oder Spektrallinien) besser als 1/100 Pixel bestimmen. Aber es ist ungleich schwerer, denn die Bestimmung eines Schwerpunkts ist die ungenaueste Methode, wie ich damals herausfand. zudem muss man zunächst die systematischen Fehler ermitteln. Das ist inzwischen ausreichend untersucht.
Gruß
Thilo Bauer
8-mal bearbeitet. Zuletzt am 28.11.07 23:58.