Raumzeit
Der Podcast mit Tim Pritlove über Raumfahrt und andere kosmische Angelegenheiten
https://raumzeit-podcast.de


RZ117 Euclid

Ein Weltraumteleskop auf der Suche nach dunkler Energie und dunkler Materie

Die geometrische Vermessung des Universums kann eine Reihe von Erkenntnissen liefern, die Aufschluss über seine wahre Größe geben – und damit auch sowohl über seine kontinuierliche Ausdehnung als auch seine innere Beschaffenheit. Diesen Auftrag hat das jüngst gestartete Weltraumteleskop Euclid der ESA, das eine umfangreiche Beobachtung des Weltraums im visuellen sowie dem nahinfraroten Spektrum vornehmen wird.

Durch diese Himmelsdurchmusterung erhoffen sich die Astronomen weitere Daten zur Bestimmung der dunklen Energie als auch der dunklen Materie im All. Das gesammelte Datenmaterial wird darüberhinaus in bereitgestellten Katalogen den Forscherinnen und Forschern weltweit noch über Jahre hinaus eine Forschungsgrundlage sein.

https://raumzeit-podcast.de/2023/10/30/rz117-euclid/
Veröffentlicht am: 30. Oktober 2023
Dauer: 1:58:49


Kapitel

  1. Intro 00:00:00.000
  2. Vorstellung 00:00:34.682
  3. Max-Planck-Institut für Astronomie 00:01:20.041
  4. Haus der Astronomie 00:02:24.507
  5. Persönlicher Hintergrund 00:05:02.625
  6. Aktuelle Fragen der Kosmologie 00:07:22.188
  7. Gründe für die Euclid-Mission 00:20:55.545
  8. Ziele der Mission: Dunkle Materie 00:22:29.369
  9. Ziele der Mission: Dunkle Energie 00:37:06.991
  10. Zusammenfassung der Ziele 00:52:37.569
  11. Missionsplanung 00:56:49.595
  12. Teleskop und Instrumente 01:07:21.427
  13. Auf der Suche nach einer Rakete 01:09:50.293
  14. Start und Inbetriebnahme 01:18:02.230
  15. Beobachtung und Datenauswertung 01:35:41.546
  16. Datenveröffentlichung 01:44:50.342
  17. Krise der Kosmologie 01:53:12.162
  18. Ausklang 01:56:00.107

Transkript

Tim Pritlove
0:00:35
Knud Jahnke
0:01:14
Tim Pritlove
0:01:16
Knud Jahnke
0:01:26
Tim Pritlove
0:02:24
Knud Jahnke
0:02:31
Tim Pritlove
0:03:45
Knud Jahnke
0:03:52
Tim Pritlove
0:04:18
Knud Jahnke
0:05:09

Sehr gute Frage. Also ich bin Astrophysiker, vom Studium her. Ich hab in Hamburg seiner Zeit studiert. Ich war dann in Potsdam und bin dann hier als Postdoc ins Institut gekommen, hatte dann eine Forschungsgruppe, mehrere Jahre, im Bereich Schwarze Löcher in Galaxien, da arbeite ich immer noch in dem Bereich und dann gab sich 2011, dass Euclid am Horizont sich als tatsächliche, nicht nur als Studie und als Konzept abzeichnete, sondern dass die ESA das wahrscheinlich oder möglicherweise als Mission akzeptieren, adoptieren und dann bauen wird und das entschied sich 2011. Und zu dem Zeitpunkt waren im Prinzip die Leute hier, die unsere Beiträge zu dem Zeitpunkt oder bis dahin vorbereitet hatten, waren auf dem Absprung und sagten, okay, das war alles gut, wunderbar, wir suchen jetzt jemanden, der unsere Instrumentierungsbeiträge, die wir liefern und haben könnten, koordiniert, der auch unsere funktionale Sachen, die wir während der Mission anbieten, koordiniert. Und der dann auch die Rolle des sogenannten Instrumentwissenschaftlers für einen der Instrumente übernehmen kann. Dann hab ich gesagt, hey das klingt eigentlich sehr spannend, das wird länger dauern und das war wie gesagt 2011, jetzt bin ich ein Dutzend Jahre dabei, immer noch in der Funktion als Instrumentwissenschaftler, können wir dann zukommen und wir haben in dem Zeitpunkt dann Instrumentierung entwickelt und viel an Konzeptionen mitgearbeitet. Das heißt, es ist wirklich der Zugang über die Forschung gekommen. Ich habe großes Interesse an den Daten, die kommen werden, wenn ich auch kein Kosmologe bin. Das ist eine Kosmologie-Mission, werden wir drüber sprechen. Aber die Daten sind einfach sehr, sehr spannend. Die Bilder, die Spektren, die da kommen werden, werden sehr, sehr spannend sein und berühren ganz viele Sachen, mit denen ich vorher gearbeitet habe. Ich habe im Hubble-Teleskop gearbeitet, bodengebundene Daten, optisch, infrarot und dementsprechend, viele Sachen kamen mir sehr bekannt vor, nur dass es halt jetzt um sehr, sehr viele Daten gibt über einen sehr großen Himmelsbereich und Dinge, die man einfach von der Erde aus nicht machen kann und das ist das, was damals spannend war, was jetzt auch noch spannend ist für mich als jemand, der aus der Forschung kommt.

Tim Pritlove
0:07:23
Knud Jahnke
0:07:32

Ich glaube Kosmologie offiziell ist sozusagen wirklich die Struktur des Universums im Ganzen, wenn man mal diese ganzen kleinen Sachen, die Galaxien oder so mal im Detail so weglässt, ne? Also wir haben wir haben da einfach ganz große Baustellen Ich sage immer mal scherzhaft also vor 105 Jahren wussten wir eigentlich alles was im Universum so so da ist da gab es so die große Diskussion was sind Galaxien die Great Debate sind das Nebel von irgendwas in unserer Milchstraße oder sind das Dinge die wie unsere Milchstraße. Nur außerhalb weiter weg sind. Und danach hat man gesagt, okay, wunderbar, wir wissen jetzt, was Galaxien sind, wir alle die Nebel, die können wir erklären. Da haben wir gesagt, wir kennen eigentlich alles, was wir im Bereich so... Wir nehmen ein Teleskop, gucken in den Himmel, sehen was. Das ist alles das. Ja, man kann größere Teleskope nehmen, kann weitergucken. Das war alles das, was wir von uns auch kennen. Wir sehen die Sonne, wir sehen die Planeten, wir sehen die Sterne um uns herum. Fertig. So. Dann kam halt irgendwann ein paar Jahrzehnte später, stellte man fest, Galaxien rotieren nicht wie sie sollten, sie rotieren irgendwie so, als ob da mehr Masse drin ist, als wir leuchtend sehen. Galaxienhaufen bewegen sich nicht so wie sie sollten, da ist mehr Masse drin als wir sehen und wenn man das mal genau ausrechnet, dann kommt man dahin, dass da viermal mehr, fünfmal mehr Masse sein muss, als wir uns mit leuchtenden Sternen oder Gas im Hintergrund erklären können. Das waren dann die dunkle Materie, weil... Materie leuchtet nicht. Dunkel. Ja, okay. Da haben wir dann schon mal irgendwie gesagt, dass da fehlen uns irgendwie dann... Vier Fünftel oder so von dem was wir kennen. Vier Fünftel wissen wir nicht, ein Fünftel kennen wir ja so und dann haben wir natürlich weiter geguckt und dann kam vor gut 20 Jahren die Sache mit den wir gucken uns an wie eine Standardkerze in diesem Fall Supernovae so an Helligkeiten mit sich bringen wenn sie weiter und weiter entfernt sind.

Tim Pritlove
0:09:39
Knud Jahnke
0:09:53

Genau, denn unser Grundproblem in der Astronomie ist, wir können ja anders als zum Beispiel am CERN, wir können nicht einfach Sachen aufeinander schießen und dann die Ergebnisse angucken, wir können auch nicht großartig warten, bis sich Galaxien irgendwie entwickelt haben oder groß durch die Gegend bewegt haben, das heißt, wir müssen immer mit Schnappschüssen arbeiten. Wir können immer nur gucken und versuchen aus Sachen, die in verschiedenen Entfernungen sind, weil wir wissen, Lichtgeschwindigkeit ist endlich, okay, weitere Entfernung heißt, wir gucken in die Vergangenheit zurück. Das ist gut, wir müssen uns das aber irgendwie zusammenbauen mit indirekten Markern und wie du es so schön erklärt hast, wenn ich nicht weiß, dass irgendetwas mit einer bestimmten Helligkeit leuchtet, Dann kann ich auch nicht sagen, okay, ich weiß, die Leuchtkraft ist so und so groß, die Helligkeit, die bei uns ankommt, ist so und so groß, also kann ich eine Entfernung abschätzen. Das heißt, wir brauchen als eine Sache so Standardkerzen, wie wir sie halt nennen. Und die Supernovae sind genau das. Wenn man ein bisschen rummodelliert, dann sagen wir, okay, wir können bestimmte Sachen, bestimmte Eigenschaften von denen, Abklingengeschwindigkeiten und so weiter, nehmen. Dann können wir daraus berechnen, welche Leuchtkraft sie tatsächlich haben. Und dann können wir wirklich gucken, okay, wir gucken uns Supernovae an, die in der Galaxie in 5 Milliarden Lichtjahren Entfernung, gucken was bei uns an Helligkeit ankommt und sagen okay, das ist die Entfernung. Als Leute das gemacht haben und dann gesagt haben, irgendwie nimmt das aber mit der Entfernung nicht so ab, wie wir das eigentlich erwarten. Das passt nicht dazu, dass wir ein einfaches Modell haben vom Urknall, da sind wir wieder bei der Frage, was ist Kosmologie. Urknall, das Universum expandiert seitdem und wir haben eigentlich angenommen, ja da ist Materie drin. Materie, Masse hat nur eine Sache, Anziehungskraft. Das heißt, es gibt keine, andererseits bei elektrischen Ladungen, positiv, negativ, Masse ist da, Masse hat Anziehungskraft, das heißt, wenn da irgendwas auseinanderfliegt und da ist Masse, dann bremst die eigentlich dieses Auseinanderfliegen ab. Ja und das was mit den Supernova dann gesehen wurde ist, dass das nicht damit konsistent ist, das funktioniert nicht, sondern wir sehen, dass eigentlich die Geschwindigkeit der Expansion zunimmt, beschleunigt.

Tim Pritlove
0:12:11
Knud Jahnke
0:12:30
Tim Pritlove
0:12:55
Knud Jahnke
0:12:59

Hubble die Person. Aber dass es jetzt irgendeinen Faktor gibt, der nicht abbremst, sondern sogar beschleunigt, das war neu. So und das heißt, wenn man das wieder zurückgeht und dann noch was anderes dazu nimmt, nämlich zu sagen, okay wir wissen seit solchen Missionen wie WMAP oder Vorgängern oder Planck, Dass das Universum eine bestimmte Krümmung hat und dann wenn man da Modelle dran füttert, dann heißt das, okay, wir können daraus berechnen, welchen Energieinhalt es im Universum ungefähr gibt. So, und wenn man den berechnet, dann kommt man darauf, da fehlen uns weiterhin 70 Prozent, auch wenn man dunkle Materie und normale Materie, leuchtende Materie zusammenzählt. Und wenn man dann die Supernovae dazu nimmt und sagt, da ist noch eine Beschleunigung dabei, da ist ein Druck, dann kommt man auf irgendwas ganz Merkwürdiges, dann kommt man nämlich auf ganz viel Energie, die da sein muss, die wir bisher noch nicht gesehen haben, die aber nicht wirkt wie normale Masse, nämlich anziehend, sondern die abstößt. Das heißt, das ist irgendwie ein Druckfaktor. Irgendwie so eine Art Druck, wie so ein Gas in einem Ballon. Es hat einen Druck, hat auch Masse, aber irgendwas führt dazu, dass da ein Druck nach außen ist und nicht einfach das Gas sagt, ah, ich hab ja nur eigentlich Schwerkraft, ich fall ineinander zusammen, ansonsten interessiert mich der Rest nicht. Ne, da ist ein Druckterm. Und aus den Modellen, die im Prinzip an WMAP und Plank und so dran modelliert wurden, ist klar... Wie groß der Energieinhalt ist und aus den Supernova Beobachtungen ist klar, dass da eine Beschleunigung da ist. Und das ist etwas, was wir mit unseren ganzen Elementarteilchen, unseren ganzen Feldern, die wir kennen, nicht beschreiben können. Und ja, in der Abgrenzung zur dunklen Materie, die wir nicht verstehen, hat man gesagt, ha, dann nennen wir das mal nicht dunkle Materie, sondern dunkle Energie. Haben wir also einen neuen Begriff, der uns erstmal die Angst nimmt vor dem Unbekannten, aber in der Summe ist es halt so, anders als 1920 war dann 2020 klar, dass wir irgendwie von 95% der Energie, die wir im Universum irgendwie feststellen und messen und mit den Modellen vorhersagen und sehen können, dass wir von denen nicht wissen, was es ist. Und das ist natürlich ein, sagen wir mal, für Grundlagenforschung etwas unbefriedigender Zustand, deswegen gibt es ganz, ganz viele Versuche, mehr Licht ins Dunkel zu bringen. Sehr viele Theorien, die gemacht wurden, aus welchen Zusammenhängen könnte bestehen, aus aktuellen Teilchen oder aus Erweiterung des sogenannten Teilchenstandardmodells, wo gesagt wird, okay, wenn wir darüber hinausgehen, da gibt es mögliche Erweiterungen, da könnten neue Teilchen sein, die eventuell dunkle Materie dann haben, also die Masse haben, die wir aber so im Alltagsleben oder im Alltagsbeschleunigerleben auch nicht sehen, die diese dunkle Materie darstellen könnten. Was sehr recht exotisches. Da könnten wir, sind andere Teile von Theorien, beschreiben dann die dunkle Energie. Gehen wir zurück zu Einstein. Einsteins Feldgleichung der allgemeinen Relativitätstheorie hatten da so einen komischen Faktor drin, so eine Integrationskonstante, von denen er auch nicht genau wusste, was er damit anfangen sollte und sagte, gut, es gibt eigentlich aktuell zwar formal diese Integrationskonstante, aber es gibt keinen Grund, warum die nicht Null sein sollte, also ignorieren wir die mal. Kosmologische Konstante, sagen wir, ist gleich Null. Und hundert Jahre später stellte man fest, also im Prinzip wäre das, was wir hier sehen an dunkler Energie, an dem Effekt der Abstoßung bei gleichzeitig Energieinhalt, das ist im Prinzip kompatibel mit so einer kosmologischen Konstante. Zumindest grob der Effekt wäre derselbe, wenn diese kosmologische Konstante aus Einsteins Feldgleichung halt nicht Null wäre. Hat dann spezielle Eigenschaften und es gibt alternative Varianten, alternative Dinge, die nicht sich darauf beziehen. Quintessenz, kann ich auch nicht viel zu sagen, zeitveränderliche Energieinhalte, zeitveränderliche Abstoßungen, teilweise angebunden an die inflationäre Expansion des Universums. Einen ganz frühen Universum, wo in den ersten Millisekunden das Universum plötzlich um einen Skalenfaktor, weiß ich nicht, sehr viel größer wurde, was im Prinzip etwas sehr Ähnliches ist, wie wir es jetzt sehen. Eine Beschleunigung der Ausdehnung, aber auf sehr viel kürzeren Zeitskalen damals, aber einfache Modelle sind immer elegant. Wenn wir sowas im frühen Universum hatten und sowas in langsamer Heute sehen, könnte es da eventuell Zusammenhänge geben, dass wir irgendwie nur eine langsame Variante des Ganzen immer noch oder schon wieder haben. Und darum dreht sich sehr viel in der Theorie, wo ich überhaupt keinen detaillierten Einblick habe, weil es sehr komplex ist. Aber im Prinzip das Gute ist, diese ganzen Zweige, sowohl im Bereich dunkler Energie als auch im Bereich dunkler Materie, machen teilweise sehr unterschiedliche Vorhersagen. Und wenn sie unterschiedliche Vorhersagen machen, können wir die testen. Und das ist die Grundlage für viele kosmologische Himmelsdurchmusterungen, viele kosmologische Projekte, die versuchen besser und besser diese Modelle im Prinzip voneinander abzutrennen, indem sie diese Vorhersagen angucken und sagen, okay, es passt zu dem Modell, aber es ist nicht kompatibel mit diesem Modell.

Tim Pritlove
0:18:12
Knud Jahnke
0:19:59
Tim Pritlove
0:20:37
Knud Jahnke
0:21:32
Tim Pritlove
0:21:33
Knud Jahnke
0:21:50
Tim Pritlove
0:22:02
Knud Jahnke
0:22:37
Tim Pritlove
0:23:19
Knud Jahnke
0:23:20
Tim Pritlove
0:23:38
Knud Jahnke
0:23:41
Tim Pritlove
0:24:29
Knud Jahnke
0:24:31

Was man ja eigentlich nicht erwarten würde. Es wäre ein ganz klarer Verstoß gegen lokale Energieerhaltung. Aber wir reden halt hier von Dingen, die nicht einfach in Materie oder so umwandelbar sind. Das heißt aber, dass im ganz frühen Universum die Dunkle Energie keinen großen Beitrag hatte. Aber je größer das Universum wurde, desto größer wurde dieser Beitrag. Und das heißt, wir müssen im Prinzip zwar nicht nur in unsere Umgebung gucken, sondern bis 10 Milliarden Jahre in die Vergangenheit, aber nicht zwischen 10 und 11 und 12 und 13, 13 und ein halb. Das heißt, wir brauchen gar nicht so extrem große, feine, tiefe Beobachtungen, sondern nur Sachen, die ungefähr so gut sind wie das Hubble-Teleskop in ähnlicher Art. So, das ist der eine Teil. Der zweite Teil ist, die Methoden, mit denen Sachen angeguckt werden, alle Marker, die wir nutzen und alle Marker, die auch vom Boden aus genutzt werden, beinhalten sehr viel Anzahlstatistik über Galaxien. Das heißt, es reicht nicht, wenn ich mir ein, zwei, drei Sachen sehr genau angucke. Ich muss mir Anzahlen von Galaxien, Dichten von Galaxien in bestimmten Entfernungen voneinander angucken. Ich muss Stichworte schwache Gravitationslinseneffekt, Stichwort Baryon-Akustische Oszillation. Das sind alles Sachen, die funktionieren nur, wenn man sehr, sehr große Flächen, sehr, sehr große Volumina des gesamten Kosmos sich anschaut und sehr, sehr viele Galaxien darin. Das heißt, das, was JWST sehr, sehr gut macht, viele Seers da drin, nämlich tief zu gucken, das kann Web über einen sehr kleinen Himmelsbereich. Das heißt, wenn ich ein großes Feld am Himmel angucke, was JWST angeguckt hat, dann meine Armausstrecke und meinen Fingernagel vom kleinen Finger angucke, das deckt das völlig ab und viel, viel mehr. So das heißt, wir können dort nur ganz kleine Volumen des gesamten Kosmos mit einem Bild abdecken. So und das dauert dann trotzdem eine Stunde oder zwei. So und dann mach ich das nochmal und nochmal und nochmal und so und irgendwann ist der Tag zu Ende oder das Jahr oder die Missionszeit und ich hab trotzdem nur einen minimalen Bereich angeguckt. Aber das ist ja auch Ziel, weil … Das ist das Ziel von JWST, weil sie sehr sehr gut aufgelöst, sehr schwache Objekte … Man will ja genau so eine alte Galaxie sich anschauen und sagen wie weit ist sie … Genau und in Details und Galaxien selber zerlegen und so weiter. Und das ist genau das Ziel dafür. Hilft uns aber nichts, wenn wir ein großes Volumen des Kosmos tatsächlich angucken wollen. Und Hubble ist ein bisschen besser, das Gesichtsfeld ist ein bisschen größer, aber Hubble selber hat auch nur in der gesamten Lebensdauer irgendwie 50 Quadratgrad am Himmel angeguckt. Das kann man auch so mit zwei auseinandergehaltenen Fingern am Himmel so anzeigen. Insgesamt, wenn man über alles summiert. Und wir brauchen ein Volumen, Euclid wird 15.000 Quadratgrad, angucken, das ist mehr als ein Drittel des gesamten Himmels. So, und das sind Sachen, die kann man vom Boden aus machen. Aber nicht in der Qualität, die wir brauchen, was Auflösung angeht. Und die kann man vom Boden machen, aber nicht im Wellenlängenbereich, den wir teilweise brauchen, nämlich im Nahinfraroten, da ist zu viel Atmosphäre vor. Und deswegen war ganz klar, für sehr feine Strukturen, die wir angucken wollen, über einen ganz großen Himmelsbereich, brauchen wir was, was im Weltraum ist. Und um sehr viele Galaxien anzugucken, relativ tief und sehr breit im Nahinfrarotbereich, das geht auch nur aus dem Weltraum. Und da war klar, wenn man diese beiden, diese ganzen Marker schafft, in einer, oder diese Techniken in einer Mission zu verbinden, denn es gab verschiedene Vorschläge für verschiedene Missionen, die verschiedene kosmologische Sachen abtesten wollten, dann hat man im Prinzip gewonnen, dann startet man ein Teleskop, da reicht dann auch ein Spiegeldurchmesser von Euclid 1,20 Meter, was halb so groß ist wie Hubble und ein Fünftel von dem, was JWST hat. Das reicht an Lichtsammelfläche, weil wir nicht ins tiefste, frühste Universum müssen. Aber gleichzeitig kriegen wir ein riesengroßes Gesichtsfeld und können das, was Hubble in seiner Lebenszeit an Fläche angeguckt hat, können wir in der Woche machen.

Tim Pritlove
0:28:31
Knud Jahnke
0:28:46

Ganz viel Statistik über Milliarden von Galaxien. So und jetzt muss ich ein bisschen ausholen, was die Methoden angeht. Also was wollen wir machen? Wir wollen zwei verschiedene Dinge im Prinzip, also es gibt verschiedene Marker, die wir nutzen wollen, zwei Hauptdinge. Eine ist der schwache Gravitationslinseneffekt, das heißt, Masse, die sich irgendwo im Universum befindet, wenn da ein Lichtstrahl in der Nähe vorbeigeht, Masse lenkt Licht ab. Masse krümmt den Raum, Licht folgt dem Raum, also gibt's einen kleinen Bogen, wenn irgendwo ein Lichtstrahl nahe einer Masse vorbeifliegt. Wir kennen das vom starken Gravitationslinseneffekt, wo man vielleicht mehrere Bilder kriegt von irgendeinem fernen Quasar, der geht nah an einer Galaxie vorbei und plötzlich gibt es da eins, zwei, drei oder vier Bilder oder einen Ring, Einstein-Ring, so genannten. Das wäre dann, wenn etwas sehr dicht an einer sehr großen Masse vorbeigeht. Wir nutzen... Das nicht. Wir wollen über größere Bereiche aus, sagen wir mal, machen. Wir nutzen den sogenannten schwachen Gravitationslinseneffekt. Das heißt, wenn also nicht mehrere Bilder erzeugt werden, was so eine Vordergrundmasse trotzdem tut, ist die verbiegt im Prinzip die Form einer Galaxie, die im Hintergrund ist. Wenn sie bei uns angekommen ist, sieht die nicht mehr so aus oder ist das Bild nicht mehr so, wie sie tatsächlich aussieht. Angenommene Galaxie würde ohne irgendwie eine Vordergrundmasse rund erscheinen. Das Bild was bei uns ankommt, wenn das Licht von der Galaxie nah an so einer Masse vorbeigeht, ist irgendwas Elliptisches in die Länge gezogenes. Kleines bisschen, eventuell nur ein paar Prozent.

Tim Pritlove
0:30:14
Knud Jahnke
0:30:19
Tim Pritlove
0:30:41
Knud Jahnke
0:30:44

Genau und da wir Annahmen machen können, wie Galaxien ursprünglich aussehen und dass die im Prinzip nichts miteinander zu tun haben. Wenn ich ein Hintergrundfeld von Galaxien angucke und die nicht zufällig alle gerade miteinander zusammengestoßen sind, sondern Dinge in etwas unterschiedlichen Entfernungen, dann haben die Formen und Orientierungen, wie jetzt so eine Galaxie orientiert ist am Himmel, haben nichts miteinander zu tun. Das sollte eigentlich zufällig verteilt sein. Wie, was weiß ich, die Milchstraße von der leicht gekippt hat, sieht irgendwie so leicht elliptisch aus. Und wenn die irgendwo ist und irgendeine Galaxie in der Nähe ist, dann sollten die eigentlich nicht alle parallel liegen mit ihren elliptischen Achsen. So. Und was wir jetzt messen ist, wir messen diese Form und wir messen die Orientierung und wenn wir da Effekte sehen, dass die doch korreliert sind über Himmelsbereiche, dann wissen wir, da hat irgendjemand das Licht verzerrt. Irgendetwas war da im Weg, das hat das Licht verzerrt, hat irgendwas ausgerichtet und zwar in den Bildern, die wir sehen. Nicht natürlich, hat natürlich nichts mit den Galaxien im Hintergrund zu tun, sondern nur wie das Licht gelaufen ist, wie das Licht bei uns angekommen ist. Und wenn da Korrelationen in diesen Ausrichtungen da sind, dann wissen wir, das sind irgendwelche Massen. Zwischen den Hintergrundgalaxien, die wir angucken und uns als Beobachter gelegen haben, die diese, mit leichter Verzerrung des Raumes, diese Bilder ausgerichtet haben.

Tim Pritlove
0:32:10
Knud Jahnke
0:33:14
Tim Pritlove
0:33:14
Knud Jahnke
0:33:42
Tim Pritlove
0:33:55
Knud Jahnke
0:33:55
Tim Pritlove
0:34:04
Knud Jahnke
0:34:11

Ja, wir wissen aber schon, dass dunkle Materie im Prinzip keine oder so gut wie keine elektromagnetische Wechselwirkung hat und Dunkelheit heißt ja irgendwie nur, kein Licht heißt keine elektromagnetische Wechselwirkung und ob jetzt irgendwie kein Photon da rauskommen kann oder ob es grundsätzlich ist, dass die Materie keine Photonen imitiert, weil es an dieser Wechselwirkung nicht teilnimmt, sondern nur Gravitation hat, ist erstmal egal. Der Effekt ist derselbe, Masse ist Masse. Und das ist der Vorteil, wenn wir nämlich jetzt so eine Kartierung machen über den Himmel, auch wieder mit verschiedenen Galaxien, Hintergrundgalaxien in verschiedenen Entfernungen, um verschiedene Weltalter oder kosmische Zeitalter abzufragen, dann kriegen wir letztendlich eine Karte von dem, was wir nicht sehen können, nämlich von der tatsächlichen Massenverteilung. Und zwar über ein Drittel des Himmels, weil wir ein Drittel des Himmels kartieren, und in der Tiefe in verschiedenen Epochen, Und ich glaube, elf oder zwölf oder dreizehn Epochen fragen wir ab von vor zehn Milliarden Jahren und neun und acht und sieben und so weiter zu den Zeiten bis nahe an uns oder näher an uns ran und das heißt, wir bekommen tatsächlich eine dreidimensionale Karte von Masse. Und da wir es bei verschiedenen Epochen machen, können wir diese Karten oder diese Statistiken über diese verschiedenen Epochen auch miteinander vergleichen. Wie ist zum Beispiel das, was wir Clustering nennen. Wie stark hat sich Materie zusammengeballt? Weil irgendwo ganz früh im Universum, da war Materie fast gleich verteilt. So ganz früh. Kosmische Hintergrundstrahlung. Ganz kleine Fluktuationen. So heutzutage, wir sitzen an einem Tisch, der Tisch hat ganz klar eine viel höhere Dichte als die Luft drumherum, die Erde hat eine viel höhere Dichte als die leeren Teile im Sonnensystem. Wir haben ganz große Dichte-Kontraste. Das heißt, es hat sich ganz viel entwickelt und auch die dunkle Materie hat im Laufe der Zeit sich zu immer stärker und stärker zusammengeballten Strukturen zusammengefunden. Das fing an mit leichten Dichte-Kontrasten und wo halt bisschen mehr Dichte war, bisschen mehr Materie war, dort wurde halt etwas mehr Anziehungskraft ausgeübt, als in den Bereichen, wo weniger Materie war und deswegen kam mehr und mehr Materie zu den Bereichen, wo schon mehr Dichte war oder mehr Materie war und das heißt, es findet eine Entwicklung statt, es fand eine Entwicklung statt, vom frühen Universum bis heute, geht auch weiter und wenn wir uns verschiedene Zeitalter angucken, können wir diese Statistiken über diese Materiekarten miteinander vergleichen, wie sozusagen die Strukturentwicklung war im Universum. Und das ist wieder so eine Sache, wir müssen halt gucken, wie können wir verschiedene Schnappschüsse miteinander vergleichen, wie können wir verschiedene Instanzen, die wir nur einmal beobachten sozusagen und wo wir nicht warten müssen über eine Milliarde Jahre, das ist ein bisschen lang für ein Projekt, miteinander vergleichen, um zu sagen, wir kommen zu einer Entwicklung. Wir können uns eine Entwicklung anschauen. Und das ist einer der fundamentalen Sachen. Wir können Strukturentstehung über schwachen Gravitationslinseneffekt angucken. Und das andere Haupt, der zweite Hauptmarker, neben anderem ist, dass wir versuchen, der Expansionsgeschichte des Universums nachzuforschen. Wieder die große Frage, woher zum Teufel wollen wir wissen, wie groß das Universum vor zehn Milliarden Jahren war? So, wir können zwar sehen, die Abstände zwischen zwei Galaxien sind so und so groß, Aber wir wissen nicht, wie groß die Abstände zwischen diesen beiden Galaxien eine Milliarde Jahre später oder fünf oder zehn Milliarden Jahre später ist, weil wir halt die nur einmal sehen. Die sehen wir nur zu dem Zeitpunkt vor zehn Milliarden Jahren, weil wir uns Galaxien angucken, die zehn Milliarden Lichtjahre entfernt sind und die Lichtlaufzeit so lang war und so weiter. So, wenn wir uns vor fünf Milliarden Jahren einen Schnappschuss angucken, sehen wir andere Galaxien. So das heißt, wie verfolgt man die Expansionsgeschichte des Universums? Und da gibt es genau eine Sache, die bisher gefunden wurde und das ist total clever und es ist jedes Mal mindblowing, es gibt tatsächlich einen Längenmaßstab im Universum, der sich mit dem Universum zusammen ausgedehnt hat. Und der hat was zu tun mit dem, was man leicht von der Zunge gehend baryon-akustische Oszillationen nennt.

Tim Pritlove
0:38:17
Knud Jahnke
0:38:20
Tim Pritlove
0:38:39
Knud Jahnke
0:39:03
Tim Pritlove
0:39:52
Knud Jahnke
0:39:55

Das Universum war nicht transparent. Das heißt, erst nachdem das Universum so abgekühlt war, dass aus Protonen und Elektronen ein Atom, ein Wasserstoffatom wurde, gab's plötzlich kaum mehr Ladung, freie, und die Photonen konnten abhauen. und so. Was aber früher schon passierte, das geht jetzt zurück zu dem, was ich eben erklärte. Wir hatten schon leichte Kontraste in Massen oder Massedichten zwischen verschiedenen Bereichen, links und rechts. Das, was wir auch in der kosmischen Hintergrundstrahlung sehen bei diesen Karten des ganzen Himmels. Ganz leichte Kontraste. Da, das sind Massenunterschiede, die gab's auch, als das Universum noch Plasma war. Und dort war wie danach auch Gravitationsanziehung. Das heißt, Materie ist ganz leicht zu diesen höheren Dichten stärker hingegangen, als in die Bereiche, wo niedrigere Dichten waren. Jetzt gab's aber komische Effekte, dass, weil die Photonen so mit der Materie immer mitlaufen mussten, weil sie nämlich nicht weit weg kamen, kam das dazu, dass es dort zu einem Druck kam, wenn Sachen zusammenfielen oder sich stärker zusammenballen wollten. Und wenn wir Druck haben, dann gibt's wieder eine Abstoßung und dann sind wir wieder abgestoßen und dann kommt wieder Gravitation und zieht das wieder an. Das heißt, es kam da zu so einer Art Schwingung in dem frühen Universum vor der Zeit von 379.000 Jahren. Und da gibt's eine charakteristische Schwingung, eine Schwingungsamplitude, eine Schwingungsgeschwindigkeit, die im Prinzip sagt, okay, mit dieser Geschwindigkeit können, oder schwingt charakteristisch, schwangen charakteristisch, Vergangenheit, zu dem Zeitpunkt diese Massen dichten. Und dann wurde das Universum plötzlich transparent, 379.000 Jahre nach Murknall, und dieser Druck verschwand, weil sich nämlich die Photonen plötzlich frei bewegen konnten. Und was dazu führte, Schwingung heißt immer, oder charakteristische Schwingung heißt immer eine charakteristische Wellenlänge. Charakteristische Wellenlänge, weil irgendeine bestimmte Geschwindigkeit, so. Und diese Wellenlänge war plötzlich eingefroren. Die änderte sich nicht mehr. nämlich die charakteristische Wellenlänge genau der Bedingungen direkt kurz vor 379.000 Jahren nach Murknall. Da hat sich danach nichts mehr verändert, dieser Druck verschwand, es gab keine neuen Schwingungen mehr, weil plötzlich gab es nur noch Schwerkraft, keine Druckeffekte mehr von irgendwelchen gefangenen Photonen. Und plötzlich war diese Wellenlänge eingefroren. Leichten überdichten auf dieser entfernung zwar in jede richtung welche wellenlänge war das und das ist genau eine wellenlänge die einem die ein maßstab ist die später immer mehr und immer mehr sich immer mehr masse eingefunden hat ich kann nicht sagen was das für eine entfernung ist mehr viele viele mega parsec im heutigen universum aber auf dieser auf dieser auf dieser entfernung auf diesem maßstab haben sich im laufe der zeit Zeit etwas mehr Galaxien charakteristisch entwickelt, als auf allen anderen Marsstäben. Das heißt, wenn ich mir einen Galaxienhaufen angucke, dann bekomme ich in dieser Entfernung dieses Marsstabs etwas mehr Galaxien zu sehen, wenn ich eine Statistik mache, als auf kleineren Abständen oder als auf größeren Abständen. Und damit kann ich im frühen Universum, also nicht mehr ganz so frühen Universum bei zehn Milliarden Jahren in der Vergangenheit, kann ich versuchen Statistik zu machen. Ich gucke mir die Abstände von Galaxien an, vielen Galaxien, und mache eine Statistik, wenn ich mir die Abstände von jeder Galaxie zu jeder anderen Galaxie angucke und mir angucke, wie viele Galaxien sind am Abstand von 1 Meter und 100 Lichtjahren und 10.000, und 1 Milliarde Lichtjahre, wenn ich mir das angucke und dann eine Statistik mache, dann bekomme ich irgendwann einen kleinen Peak, eine kleine Überdichte. Das ist dieser Maßstab. Und wenn sich das Universum ausdehnt, dann dehnt sich dieser Maßstab mit aus, weil... Universum dehnt sich aus. So, das heißt, ich mach das nicht nur vor 10 Milliarden Jahren, ich mach das auch vor 9 und vor 8 und vor 7 oder 6 und vor 5 und habe dann einen Maßstab, den ich verfolgen kann und der ist, dieses Wachstum, dieses Maßstabes gibt mir tatsächlich den Skalenfaktor an, wie das Universum sich in dieser Zeit ausgedehnt hat. Das heißt, ich kann tatsächlich ein sehr indirektes Lineal an das Universum anlegen, vor 10 Milliarden Jahren, vor 9, 8, 7, 6 und kann messen, wie groß, nein, nicht wie groß das Universum war, sondern wie sich das ausgedehnt hat, wie sich das verändert hat. Und wenn ich die Veränderung kenne, dann kenne ich die Ausdehnungsgeschwindigkeit und wenn ich die Veränderung der Veränderung kenne, dann kenne ich die Beschleunigung. Dann weiß ich, wird es abgebremst oder wird es beschleunigt. Und damit hat man eine Zahl an die dunkle Energie, damit habe ich eine Zahl, die ist charakteristisch und wenn ich die sehr sehr sehr sehr genau messe, dann kann ich verschiedene Vorhersagen von verschiedenen Theorien voneinander unterscheiden und das ist das Ziel.

Tim Pritlove
0:44:46
Knud Jahnke
0:46:00
Tim Pritlove
0:46:16
Knud Jahnke
0:46:17
Tim Pritlove
0:46:34
Knud Jahnke
0:46:56
Tim Pritlove
0:47:08
Knud Jahnke
0:47:29
Tim Pritlove
0:48:42
Knud Jahnke
0:48:54
Tim Pritlove
0:50:16
Knud Jahnke
0:51:15
Tim Pritlove
0:52:38
Knud Jahnke
0:53:11
Tim Pritlove
0:53:16
Knud Jahnke
0:53:29
Tim Pritlove
0:53:45
Knud Jahnke
0:53:49
Tim Pritlove
0:54:01
Knud Jahnke
0:54:20
Tim Pritlove
0:54:22
Knud Jahnke
0:54:33
Tim Pritlove
0:54:57
Knud Jahnke
0:55:07
Tim Pritlove
0:55:15
Knud Jahnke
0:55:18
Tim Pritlove
0:55:54
Knud Jahnke
0:56:02
Tim Pritlove
0:56:36
Knud Jahnke
0:56:59
Tim Pritlove
0:58:07
Knud Jahnke
0:58:11
Tim Pritlove
0:58:51
Knud Jahnke
0:59:11

Und ich glaube in der Frühphase waren das keine Beratungssitzungen, sondern Abendessen oder Kaffeeunterhaltung. Und dann irgendwann wurde es formalisiert und im Prinzip wurde dann von der ESA gesagt, okay wir machen eine sogenannte Phase A Studie, wo doch das mal wirklich durchgerechnet werden soll. Richtiges, vernünftiges optisches Konzept, mechanisches Konzept, Datenverarbeitungskonzept, was für Detektoren bräuchte man da, was für Optiken, welche Genauigkeiten in der Abbildung, wie groß muss so ein Spiegel sein zum Beobachten, was Schwachheit von Galaxien angeht oder Auflösung. Hängt immer zusammen, wie genau muss das sein, je genauer desto teurer was Optiken angeht, wie viele Pixel brauchen wir auf den Detektoren, reicht da ein Detektor oder brauchen wir 100, auch wieder 100 mal mehr kosten und so weiter und so weiter und dann kristallisierten sich, kristallisierte sich dieses Optikkonzept raus mit einem 1,20 Meter Spiegel, mit zwei Instrumenten, ein Instrument im optischen, mit einem einzigen Passband, was jetzt WIS heißt, das im sichtbaren Licht operiert, was. Ganz speziell für diesen schwachen Gravitationsnissen-Effekt zuständig ist, wo im Prinzip die ganze Mission drum gebaut wurde, dass die Fähigkeit von diesem Instrument Formen ganz, ganz exakt zu messen und ganz, ganz niedrigen Fehlerraten oder ganz niedrigen Unsicherheiten zu messen, dass das sozusagen über allem anderen steht. Ja das ist ganz wichtig, ich muss, wie ich gesagt habe, ich muss von außen die Form des Mondes von der Erde unterscheiden, in erster Linie alles rund, aber halt nicht indem ich so groß auf den Mond gucke, sondern indem ich irgendwie 10 Pixel darüber hab oder 5 Pixel.

Tim Pritlove
1:00:55
Knud Jahnke
1:01:02
Tim Pritlove
1:01:26
Knud Jahnke
1:01:33
Tim Pritlove
1:01:38
Knud Jahnke
1:01:39
Tim Pritlove
1:01:49
Knud Jahnke
1:01:55

Genau, und wir nehmen schon den Bereich, der wirklich dem roten, sichtbaren Licht entspricht. Gerade so CCD-Detektoren, die da günstiger, Anführungsstrichen, nicht billig, aber günstiger sind, die hören bei ungefähr einem Mikrometer auf in der Empfindlichkeit und wir gehen halt wirklich bis 0,92 Mikrometer ran. So, das heißt wir gehen schon so rot wie es möglich ist, genau um diesen Effekt nicht zu haben, dass wir zu viel Licht verlieren oder dass wir nur knotige Sternentstehungsgebiete oder so sehen und das passt sehr gut mit der Entfernung zusammen, die wir uns angucken wollen. Zum anderen, wenn ich ins Infrarote gehe, die Auflösungsfähigkeit eines Teleskops hängt von der Wellenlänge ab. Das heißt, wenn ich doppelt so lange Wellenlänge habe, dann kann ich nur halb so gut auflösen. Das heißt, wenn ich sage, ich muss Strukturen dieser und jener Größe auflösen, und das geht mit einem Meter-zwanzig-Teleskop im Durchmesser bei 0,8 Mikrometern ganz gut. Wenn ich sage, ja, ich würde das doch vielleicht lieber bei 1,6 Mikrometern machen, dann bräuchte ich für dieselbe Winkelauflösung einen doppelt so großen Spiegel. Und doppelt so großer Spiegel ist dann schon Hubble, das wird dann sehr, sehr viel teurer. Das heißt, alles eine Abwägung. Was brauche ich? Was muss ich messen? In welcher Genauigkeit? In wie schwach dürfen die Galaxien sein? Das ergibt sozusagen die Wellenlänge, mit der ich gehen kann. Dann muss ich gucken, wie genau muss ich messen, wie groß, wie gut muss ich auflösen. Okay, roter sichtbarer Wellenlängenbereich geht noch. Das heißt, ich kann es mit CCDs machen und der Spiegel kann 1,20 m groß sein. Und dann wurde passend dazu gerechnet, okay, auf der anderen Seite, das zweite Instrument, an dem wir auch stärker beteiligt sind, im Nahinfrarotbereich, ein bis zwei Mikrometern ungefähr, Er soll sowohl Bilder machen, als auch Spektren aufnehmen, also Licht in die Wellenlängen zerlegt. Gibt uns, wenn wir Emissionslinien haben von Galaxien, die eine bestimmte Wellenlänge haben, sagt uns sofort sehr, sehr genau, in welcher Entfernung die Galaxien sich befinden. Wenn ich irgendwas in seine Wellenlänge zerlege, kann ich nicht ganz so schwache Objekte angucken, weil das Licht nicht mehr auf einem Punkt ist, sondern auseinandergezogen ist. Da muss ich dann auch wieder rechnen, wie viele Objekte brauche ich. Weniger als ich beim schwachen Gravitationslinsen-Diagnostik angucken kann. Dann passt das zusammen, geht das mit dem Spiegel und so weiter. Und das alles wurde dann mit einer Architektur für zwei Instrumente und Anzahl von Detektoren und Datenverarbeitung und Datenraten und Spiegelgröße und Temperaturen und so wurde in eine Ursprungsstudie, Phase A, gegossen. Und ESA fand das gut und dann irgendwann gabs glaub ich drei davon zur Auswahl für einen bestimmten Start- und Entwicklungsplatz sag ich mal in der Reihenfolge von den Missionen die ESA geplant hatte und dann haben sie gesagt okay 2011 wir nehmen als nächstes Euclid. Und dann wurde es etwas weiterentwickelt und 2012 wurde es dann zur echten Mission und da hat sicherlich geholfen dass es 2011 einen Nobelpreis für Dunkle Energie gab.

Tim Pritlove
1:04:47
Knud Jahnke
1:04:50
Tim Pritlove
1:05:34
Knud Jahnke
1:05:36

Auch unter Beteiligung des MPE. Die deutschen Beiträge für die Hardware wurden vom DLR bezahlt, unserer Raumfahrtagentur. Also es geht jenseits der finanziellen Mittel einzelner Institute, sage ich mal. Im Max-Planck-Institut für extraterrestrische Physik in Garching wurde die Optik für dieses Na-Infrarot-Instrument entwickelt. Wir haben eine Kalibrationslampe beigetragen, wir haben Infrarot-Filter beigetragen, die wir dann mit Industrie zusammen entwickelt haben. Hat fünf Jahre gedauert, das Ganze hinzukriegen, gut sechs, sieben, bis das dann alles fertig geschnitten, gemacht, getestet und so weiter war. Und parallel haben wir funktionale Sachen beigetragen, nämlich von Anfang an ein Kalibrationskonzept. Kalibration heißt, es ist toll, wenn wir was messen und dann haben wir da ein Bild, aber wenn wir nicht wissen, was das bedeutet, weil nämlich wir nicht wissen, ob da irgendwelche systematischen Helligkeitsschwankungen drin sind oder ob die Verzerrung so und so größer ist als geplant, dann hilft uns ein Datenpunkt gar nicht. Das heißt, ein Datenpunkt hilft einem immer nur was, wenn man einen Fehlerbalken da dran hat. Und da wir wussten, wo wir hinwollen an Unsicherheiten, was wir maximal tolerieren können für die Kosmologie, wurde das häppchenweise runtergebrochen auf Dinge, die wir im Himmel angucken müssen, Dinge, die das Instrument können muss und die Genauigkeit, mit denen wir jeden einzelnen Parameter auf dem Bild dann hinterher messen können wollen. Das ist ein garantisches Dokument und das haben wir im Prinzip anfänglich federführend für unser Instrument gemacht und jetzt haben wir auch die koordinierende Oberhoheit, die ganzen Teilnehmenden, die alle irgendwas mit Kalibration zu tun haben, zu koordinieren. Und das machen wir seit 12 Jahren hier am Institut.

Tim Pritlove
1:07:20
Knud Jahnke
1:07:35
Tim Pritlove
1:07:55
Knud Jahnke
1:08:01
Tim Pritlove
1:08:54
Knud Jahnke
1:09:04
Tim Pritlove
1:09:50
Knud Jahnke
1:09:55
Tim Pritlove
1:09:58
Knud Jahnke
1:10:05
Tim Pritlove
1:10:20
Knud Jahnke
1:10:53
Tim Pritlove
1:11:45
Knud Jahnke
1:11:58

Genau, es ist nicht beliebig austauschbar, vor allen Dingen, reingepasst, also Euklid ist viereinhalb Meter hoch und irgendwie drei Meter im Durchmesser und so, oder 280 im Durchmesser in jede Richtung, das heißt es ist groß, aber nicht exorbitant groß, das heißt viele der Großraketen würden damit problemfrei zurechtkommen. Und es ist auch, mit zwei Tonnen ist es jetzt auch nicht, also JWST hatte nur eine Möglichkeit, das war die Ariane 5, so, und ansonsten gab es irgendwie keine Möglichkeit. Es hätten mehrere in Frage kommen können, aber es war immer eine politische Frage, wenn natürlich Ariane 6 fertig ist, dann nimmt man die. Man plant also gleichzeitig für zwei Varianten und das hat großen Auswirkungen darauf, denn je nachdem was man für ein System hat, kommen zum Beispiel mehr Vibrationen in das Teleskop oder die Nutzlast rein. Wir haben ganz klar das Problem, ganz, ganz viele der Konstruktionssachen finden nur statt für zwei Minuten beim Start, weil wir dort, wie man es dann halt auch aus zehn oder zwanzig Kilometern hört, extreme Lautstärke haben, Lautstärke heißt Vibration, womit wir wieder bei den akustischen Oszillationen werden, aber ganz andere. Und das muss es halt aushalten, da dürfen keine Sachen abbrechen, da dürfen keine Linsen zerspringen oder so. Und die Ariane 6 hatte ganz klar, die hat Feststoffbooster glaube ich, und Feststoffbooster habe ich gelernt machen deutlich mehr Vibrationen als wenn man nur flüssig Antrieb hat und entsprechend war am Anfang nicht klar, ob die Ariane 6 das starten könnte oder ob sie über die geplanten Vibrationen hinweg geht und dann wurde gesagt, okay wir brauchen noch irgendwelche Dämpfer oder sowas, die da eingebaut werden müssen. Aber das war mehrere Jahre in Entwicklung. Und wäre die fertig geworden frühzeitig, dann wäre das auch sozusagen gesagt, okay gut, den Vertrag mit der Sojus, den nutzen wir für irgendwas anderes, wir machen dann unser Prestige, neue Rakete. Wurde aber natürlich gesagt, wir versuchen mal nicht der erste Start zu sein, sondern wir müssen mindestens zwei erfolgreich sein, denn gebranntes Kind schallt das Feuer und neue Raketen sind immer nicht gut für.

Tim Pritlove
1:13:59
Knud Jahnke
1:14:02
Tim Pritlove
1:15:07
Knud Jahnke
1:15:09
Tim Pritlove
1:16:32
Knud Jahnke
1:16:47
Tim Pritlove
1:17:02
Knud Jahnke
1:17:19
Tim Pritlove
1:18:00
Knud Jahnke
1:18:17
Tim Pritlove
1:18:43
Knud Jahnke
1:18:58
Tim Pritlove
1:19:32
Knud Jahnke
1:19:37
Tim Pritlove
1:20:05
Knud Jahnke
1:20:09
Tim Pritlove
1:20:30
Knud Jahnke
1:20:32
Tim Pritlove
1:22:04
Knud Jahnke
1:22:06

Das ist, ich glaube das war ein, das kann ich nicht genau sagen, das würde ich auf die ESA verweisen, ich glaube es gab relativ spät noch eine Veränderung von einem Booster oder sowas, der irgendwie ein bisschen versetzt wurde. Ich weiß nicht genau, ob das der war, der dann auch im Licht war. Jedenfalls hätte diese Isolierung nicht auch zufällig mit mehreren internen Reflektionen einen Pfad gehabt, wo Licht durch kann. Und da reden wir auch nicht von einem Loch, sondern wir reden von viel, viel, viel Dämpfung durch mehrere Reflektionen, wo immer nur ein Zehntel Prozent oder so durchkommt. Aber Sonne gegenüber ein Instrument, was halt irgendwie eine Kerze in weiß nicht wie viel Entfernung sehen kann. Das ist halt blöd. So und das passierte und dann stellte sich aber relativ bald raus, wir haben einen gewissen Winkel, den dieses Sonnenschild zur Sonne haben kann. Wir können das Teleskop in drei Teilen, drei Winkeln, drei Achsen drehen. Die eine Achse ist die, die wir immer benutzen, wo immer die, also man zieht die Achse zur Sonne und die können wir immer rumgehen und beobachten. Und in den anderen beiden Achsen haben wir ein bisschen Spielraum, um halt den Himmel ein bisschen abzudecken über ein paar Grad in eine Richtung oder die andere Richtung. Und da stellt er sich relativ bald raus, okay, in der Achse, wo das beleuchtet wird, wenn wir das Teleskop da ein bisschen rausdrehen und sozusagen unseren, nicht um Null, Winkel Null Grad beobachten werden, sondern um Winkel minus zweieinhalb Grad oder sowas oder minus fünf Grad oder sowas, also wirklich nur fünf Grad gedreht, dann passt das auf beiden Seiten. Wir haben immer noch nicht mehr ganz so viel Flexibilität beim Survey, deswegen musste auch neu geplant werden, aber es funktioniert und dann ist dieser Booster oder dieses Stück, was da im Licht hängt, ist aus dem Licht raus, kann nicht mehr reflektieren, Haken dran, alles was ansonsten streulicht ist, ist minimal und handhabbar.

Tim Pritlove
1:23:58
Knud Jahnke
1:24:06

Ja im Prinzip die Auswahl zu jedem Zeitpunkt, welchen Bereich am Himmel man zu jedem Zeitpunkt angucken kann, schrumpfte etwas und das heißt wir müssen im Prinzip diese Himmelsdurchmusterung, die für sechseinhalb Jahre auf die Minute durchgetaktet ist, also es gibt natürlich einen Plan, wann muss was angeguckt werden, wo geht man von einem Feld zum nächsten, wie lange sind die Beobachtungen, was für Kalibrationen muss wann aufgenommen werden, das muss jetzt umgeplant werden, wird umgeplant und es war ziemlich schnell klar, das ist handhabbar. Und das andere war, dass wir festgestellt haben, dass wir ein schönes Röntgenteleskop haben. Denn es gab irgendwo ein Loch in der Abschottung. Wenn die Sonne gerade extrem aktiv ist bei einem Sonnenflare, dann macht sie extra viel Röntgenstrahlung und dann gibt es ein paar Winkel. Wenn das Teleskop gerade so steht zur Sonne, dann kriegen wir im Prinzip röntgenlicht, was durch unsere Isolation durchgeht und macht auf dem einen, dann macht auch der Detektor was. Und da ist jetzt aber auch klar, durch was für Löcher das durchgeht und es ist klar, wann das auftritt. Die Sonne ist zwar jetzt besonders aktiv, weil wir Richtung Sonnenmaximum gehen oder wenn wir im Sonnenmaximum sind, aber es ist so hinreichend selten, dass man damit auch umgehen kann. Und das sind so die typischen Sachen. Ich würde mal sagen, beide Dinge sind so die typischen Sachen, die nach so einem Start auftreten, für die man nicht plant. Weil alle Sachen, die wir abgesehen haben, sind natürlich erledigt. Da findet man natürlich vorher Lösungen für. Und das sind so typische Dinge, die man hinterher feststellt und wo man relativ flexibel dann was lösen muss. Und das ist passiert und die Sicherheiten sind glaube ich wirklich gut unter Kontrolle. Das tauchte auch in den ersten Tagen, bei den ersten Daten schon auf und da war erstmal das Zähne klappern groß und jetzt ist das gelöst würde ich sagen.

Tim Pritlove
1:25:55
Knud Jahnke
1:26:56
Tim Pritlove
1:27:42
Knud Jahnke
1:27:51
Tim Pritlove
1:27:53
Knud Jahnke
1:28:07
Tim Pritlove
1:29:01
Knud Jahnke
1:29:21

Offiziell sollte, war der Plan, dass wir direkt nach dieser vier Wochen Hochfahrphase eine sogenannte Performance Verification Phase machen, wo im Prinzip einmal alle möglichen Kalibrationsdaten aufgenommen werden und geguckt wird, kann das Teleskop was wir erwarten, auf dem Boden, mit leicht anderen Temperaturen und so weiter und können wir alle Referenzdaten aufnehmen für alle Detektoren, Empfindlichkeitskarten und Dunkelstromkarten und was weiß ich, also alles was so charakterisiert Alle besonderen Schmutzeffekte oder Effekte, die dann in den Wissenschaftsdaten auch drin sein werden, die müssen wir alle wieder rausholen und da nehmen wir dann nicht irgendwie Testdaten von der Erde, wie wir im Labor gemacht haben, sondern dort wirklich vor Ort. Ja und nach zwei, drei Tagen stellte sich irgendwie heraus, das war nicht so einfach, denn das Teleskop hat seine Position nicht gehalten. Wir haben natürlich da ein sehr komplexes System, was verschiedenste Dinge von Gyroskopen und tatsächlichen Sensoren für den Ort der Sonne und feine Sensoren, die tatsächlich Sterne verfolgen, die irgendwo sind und sagt ok, wenn der ein bisschen raus wandert, dann gebe ich einen leichten Schub und gucke wieder nach links. Und das hat so nicht funktioniert. Da gab es Signale, wo plötzlich Sterne verloren wurden für dieses Guiding. Da gab es Signale, guck doch mal bitte, ich glaube der Stern ist jetzt plötzlich drei Grad weg, guck mal da rüber. Und so weiter und so weiter. Und es stellt sich fest, da gab es ein Softwareproblem auf der Teleskop- und Systemseite. Und wir haben im Prinzip 50% aller Aufnahmen verloren. Und damit kann man nicht arbeiten. Und dann wurde gesagt, okay, diese Phase beenden wir erstmal wieder. Wir müssen zurück in die Commissioning-Phase. Es war auch klar, dass diese Arbeiten noch nicht beendet waren, aber es gab die Hoffnung, dass diese Commissioning-Phase für dieses Guiding-System durch kleinere Fixes erfolgreich parallel gelöst werden könnte. Und das war halt nicht richtig. Dann wurde gesagt, okay, das hat keinen Zweck hier, wir vergolden nur ein paar Punkte. Ja nicht nur das, vor allen Dingen da haben sich halt 100 Leute, haben 24 Stunden am Tag irgendwie diese Daten angeguckt, Wochenenden und sonst wie, das war nach der Vorbereitungszeit auf Dauer nicht durchhaltbar und dann hat man gesagt, nee das hat keinen Zweck, das ist auch alles für die Tonne irgendwie, okay wir gehen zurück. Hat im Prinzip einen Monat gedauert oder sechs Wochen. Wurde ein Fix gemacht, Software neu geschrieben, umgebaut.

Tim Pritlove
1:31:58
Knud Jahnke
1:32:00

Das war ein Industriepartner, Isa hat darüber mehr geschrieben in ihrem Blog. Und das wurde hochgelinkt und dann gab es eine relativ komplexe Testkampagne auch mit dem Konsortium zusammen, wo wir gesagt haben, okay, wenn wir unsere Instrumente nutzen, was können wir an relativ schnellen Diagnostiken machen, um zu gucken, ob auf verschiedenen Zeitskalen dieses Guiding jetzt gut funktioniert. Weil, während der Missionszeit, der sechs Jahre in der Zukunft, wollen wir ja eigentlich die ganze Zeit nur gucken, es gibt so Housekeeping-Informationen, so einen Strom von Daten, der sagt, das Teleskop hat einen Lock auf dem Stern und das funktioniert alles und der Offset davon war maximal so und so groß und so und so groß und alles ist in Ordnung und so und so und wenn man die Sachen verfolgt, kann man eigentlich sagen, alles klar, wir vertrauen dem, das ist innerhalb der Parameter, das können wir automatisch abchecken, das läuft alles gut. So, wir wussten zu dem Zeitpunkt nicht, ob wir diesen Sachen trauen können. Und ESA wusste das auch nicht. Das heißt, wir brauchten eine unabhängige Bestätigung dafür. Das heißt, wir haben geguckt, okay, wenn wir jetzt mit irgendeinem super special Modus dieses WIS-Instrument laufen lassen, dann kann das tatsächlich bei bestimmten Sachen im Millisekundenbereich auslesen. Und wenn wir das NISP-Instrument schnell auslesen, dann können wir im Dreisekundenbereich auslesen. Und dann können wir sozusagen auf verschiedenen Zeitskalen hier Sachen angucken. Das wurde geplant, dann wurden die Beobachtungen geplant, hochgelinkt, Daten genommen und ausgewertet und es stellte sich raus, okay, mit diesem Fix ist fast alles beseitigt, zumindest das Hauptproblem ist beseitigt und das Guiding ist auch so gut und ein paar Diagnostiken, den können wir trauen, wenn die jetzt vom Teleskop runterkommen. Das heißt, wir müssen nicht mehr unsere Daten extrem tief angucken und gucken, ist da was faul, sondern wir können den Diagnostiken vom Teleskop trauen. Und jetzt geht's nochmal ein ganz klein bisschen in die Feinheiten, aber das war dann gelöst und dann wurde gesagt, okay wir fangen am ersten Oktober glaube ich oder 28. September fing's an, dass wir wieder zurück in die Performance Verification Phase gehen und seitdem machen wir im Prinzip den Teil der ab August stattfinden sollte und da kommen einfach ganz tolle Daten runter und die zeigen, dass das, das wird funktionieren. Das wird alles sehr gut funktionieren.

Tim Pritlove
1:34:10
Knud Jahnke
1:34:15

Der hat noch nicht angefangen. Wir werden aller Voraussicht nach noch... Drei Wochen, vier Wochen Daten nehmen, so wie das aussieht, dann braucht es noch ein bisschen, um das zu verarbeiten. Aber es ist relativ klar, die Instrumente und das Teleskop tut, was es soll, in der Qualität, wie es soll und wir müssen nur sicherstellen, dass wir alle Daten in der Qualität bekommen, um das dann zu kalibrieren. Ob dann die Verarbeitung dieser Kalibrationsdaten noch einen Monat extra dauert ist dann erstmal egal, aber wir wissen, dass das funktioniert und dann passieren zwei Dinge. Erstens wir steigen den Survey ein mit nochmal Spezialbeobachtungen, die Sachen machen, aber im Prinzip ist das der Survey, der dann sechs Jahre läuft. Zum anderen wird es die offizielle, wird es einen offiziellen Review geben und die Übergabe im Prinzip von der Industrie an die ESA. Das heißt, da wird gesagt, okay, diese Anforderung an die Industrie für Qualität wurde abgehakt und diese und diese, dann haben wir einen Katalog von, weiß ich nicht, 200 Stück und wir können absehen, dass das alles so funktioniert und dass das alles abhakbar ist, aber da müssen halt entsprechend Bilder analysiert und Parameter ausgerechnet und Dokumente geschrieben werden, damit das hinterher auch recht sicher dann in einem Review abhakbar ist. Währenddessen fangen wir dann aber mit dem Survey an. Ich nehme an, dass wir Mitte November oder so in den Survey einsteigen und dann kommen ab Anfang Januar kommen dann Daten. Jeden Tag kommen ganz viele Daten von sehr vielen hunderttausend und Millionen Galaxien jeden Tag.

Tim Pritlove
1:35:41
Knud Jahnke
1:36:08
Tim Pritlove
1:36:11
Knud Jahnke
1:36:16
Tim Pritlove
1:36:28
Knud Jahnke
1:36:29
Tim Pritlove
1:36:40
Knud Jahnke
1:36:41
Tim Pritlove
1:36:44
Knud Jahnke
1:36:55

Wir machen im Prinzip so eine Sache wir gehen zu einem Ort, also Gaia rotiert ja und macht ja sehr dezidiert, macht ja eben beim rotieren Aufnahmen. Wir machen das nicht, wir gucken zu einem Ort, bleiben dort stehen, also bleiben in der Orientierung, machen ein Bild im Nahinfrarotbereich, unsere Direktbilder sind 100 Sekunden ungefähr, drei verschiedene Passbänder in drei verschiedenen Wellenlängen und dann gibt es einen zweiten Abschnitt, wo wir parallel. Den Visible Imager für 560 Sekunden aufnehmen lassen und parallel im Nahinfrarot unsere Spektren, also im Spektroskopiebereich. Die laufen parallel, 560 Sekunden, dann verschieben wir unseren Blick am Himmel ein ganz kleines bisschen, nur um auf andere Pixel auf den Detektoren zu kommen, machen das Ganze nochmal, machen das Ganze nochmal, vier Stück und nach eineinviertel Stunde ungefähr oder eine Stunde und 20 Minuten gehen wir zum nächsten Feld. Und unser Gesichtsfeld, das Gesichtsfeld von Euclid ist so groß, dass wir ein halbes Quadratgrad da drin haben. Das heißt es ist viermal ungefähr die Fläche vom Mond, dreimal ungefähr die Fläche vom Mond, die wir da auf einmal abbilden können insgesamt. Das ist groß, das ist viel viel viel mehr als, wie gesagt, Hubble oder JWST und das bedeutet, dass wir dann sichtbar am Himmel uns ein Stück zur Seite bewegen. Und zwar zu jedem Zeitpunkt können wir halt, weil die Sonne immer im Rücken sein muss, immer auf so einem Kreis, oben, links, rechts, unten gucken und pro Tag rotiert das Ganze 360 Grad einmal rum, 365 Tage, also pro Tag rotiert Euclid mit der Erde im Prinzip um ungefähr einen Grad rum und kann immer einen Grad weiter gucken. Jetzt ist die Idee über sechs Jahre den Himmel dann so zusammen zu flicken, dieses Drittel des Himmels, was uns interessiert, wo die Hintergründe am niedrigsten sind, Himmelshintergründe, wo es am dunkelsten ist, so zusammenzusetzen, dass wir wirklich eine kontinuierliche Karte in Spektroskopie, in Photometrie, im Nahinfraroten, in den drei Bändern und im sichtbaren Licht haben. Das heißt, wir bekommen bis auf ein paar helle Sterne, die wir umgehen, also im Prinzip alles, was man so mit bloßem Auge am Himmel sieht, das umgehen wir, weil das zu hell ist, das brennt uns irgendwie nach Lichter auf unsere Detektoren, aber alles andere über diesen Drittel des Himmels, da gehen wir einfach Stück für Stück hin und machen jeweils eine Epoche Fotos. Und dann geht das ein paar Stunden später an die Erde.

Tim Pritlove
1:39:25
Knud Jahnke
1:39:39
Tim Pritlove
1:40:01
Knud Jahnke
1:40:07

Einfach starr am Himmel. Einfach nur. Das Teleskop hält uns mit kleinen Kaltgasboostern innerhalb von 75 Millibogensekunden an derselben Position. Das heißt, dass wir beugungsbegrenzt sind, also dass das Bild des Teleskops nicht verschlechtert wird. Dass es wirklich so gut wie es sein kann und der Teleskop hält uns dort in der passenden Position. Vom Nahinfrarotmodus, was wir am liebsten gehabt hätten, ist das, was Hubble kann. Hubble könnte, also die Infrarotdetektoren werden kontinuierlich ausgelesen, alle 1,4 Sekunden werden die ausgelesen und am liebsten hätten wir jedes dieser Bilder. Aber das wäre zu viel. Hubble macht das, Hubble kann das teilweise. Bei uns passiert das nicht. Wir rechnen im Prinzip aus diesen ganzen Einzelauslesungen ein Bild für Photometrie nach 100 Sekunden oder so, für Spektroskopie nach 560 Sekunden. 60 Sekunden und schicken das zur Erde zurück mit ein paar Qualitätssachen. Also auch das sind im Prinzip moderate Datenmengen. Wenn man halt nicht am Lagrange Punkt 2 wäre, für Lagrange Punkt 2 ist das schon recht viel, wir brauchen dann wirklich 2x4 Stunden Downlink-Zeit am Tag für die verschiedenen Antennen der ESA. Ich kann nicht sagen, wie viele Petabyte das insgesamt sind. Es ist keine extrem große Datenmenge. Also wenn ich das mit CERN oder mit dem LSST-Survey vergleiche, der dann kommen wird, das sind keine exorbitanten Datenmengen, weil wir halt vier Bilder und nicht in Zehntelsekunden oder sowas machen. Es ist verarbeitbar. Was dann auf der Erde passiert ist allerdings, dass wir relativ viel Software im Hintergrund haben, weil wir halt zu diesen kosmologischen Parametern müssen. Wir wollen dunkle Energie eingrenzen. Da ist ein Parameter, der muss dann auf so und so genau gemessen werden und das heißt, wir kommen von dieser sechseinhalb Jahren, also wenn man es ganz platt sagen will, wir kommen von sechseinhalb Jahren Datennahme mit einem Bild alle paar Minuten kommen wir auf zwei Zahlen. Also das ist natürlich Datenreduktion at its best, weil das ist sozusagen das Ziel dieses kosmologischen Experiments.

Tim Pritlove
1:42:20
Knud Jahnke
1:42:24

Ja im Prinzip zwei für die dunkle Materie mit Zeitfaktor und da spielt natürlich viel mehr dahinter, das ist natürlich komplexer. Aber letztendlich gibt's eine sehr große Kaskade an Eichung und an Bildbearbeitung, was Astrometrie angeht, also die Positionierung und Verzerrung, was Flachheit der Helligkeitsdaten angeht, also dass nicht 1000 Counts auf der linken Seite nicht demgleichen entspricht wie 1000 Counts auf der rechten Seite. Kalibrationssachen, um die Formen genau zu nehmen, da müssen wir noch die bei dem WISS Instrument, wir müssen wissen, welche Farben die Galaxien haben, weil unterschiedliche Farben sind unterschiedliche Wellenlängen, unterschiedliche Wellenlängen haben unterschiedliche große Abbildungsfunktionen und so weiter und so weiter. Also es ist extrem viel Aufwand dahinter, deswegen ist die Datenreduktionskaskade deutlich aufwendiger, als wenn ich nur ein schönes Bild in Anführungsstrichen mal so einfach gesagt erzeugen will. Und dafür arbeiten im Prinzip, ich weiß nicht, wie viele zig oder hundert Leute seit auch zehn Jahren, um diese Kaskade von Pixeln bis hin zu kosmologischen Parametern zu erzeugen. Und auf der anderen Seite, damit wir das nämlich simulieren konnten, nochmal so eine genauso große Seite, auf der anderen Seite, wo wir kosmologische Simulationen gemacht haben, die dann in Bilddaten umgesetzt wurden, die dann in Pixeldaten umgesetzt wurden mit allen Schmutzeffekten, die dann der Input waren für die Datenreduktionsseite. Um einmal komplett im Kreis von bekannten kosmologischen Einprägungen am Himmel zu pixeln und dann zur Extraktion dieser Sachen wieder zu kommen. Und das ist ein extrem großer Aufwand und das unterscheidet auch... Sowohl von einem normalen Teleskop als auch von allen, ich glaube, allen anderen Weltraummissionen, weil wir im Prinzip diesen Teil vorher fertig haben mussten. Es ist nicht so, dass wir sagen können, okay, wenn die Instrumente jetzt etwas schlechter funktionieren oder unser Algorithmus zur Bestimmung von Formen halt nicht so gut ist, dann kriegen wir halt nicht so tolle Sachen hinterher raus, wir machen andere Projekte. Nein, es gibt ein Ziel und das muss erreicht werden, ansonsten braucht man die Mission nicht zu starten. Und deswegen musste das vorher fertig sein. Und das war und ist weiterhin sehr sehr aufwendig was die Software angeht. Zehn Datenzentren über die Welt verteilt mit Spezialisierungen, viele Leute, sehr viele Leute die an Processing Functions für diese und jene Funktion sitzen und so weiter.

Tim Pritlove
1:44:50
Knud Jahnke
1:44:57
Tim Pritlove
1:45:37
Knud Jahnke
1:45:39
Tim Pritlove
1:46:40
Knud Jahnke
1:46:43
Tim Pritlove
1:47:09
Knud Jahnke
1:47:13

Und davor kommt ein Jahr vor und das ist schon in einem guten Jahr von jetzt an wahrscheinlich Januar Februar 25 kommt unser Quality Data Release. Das sind nur 50 Quadratgrad. Ich sag nur in sehr sehr großen Anführungszeichen. Da kommen schon mal Bilder über 50 Quadratgrad. So, muss noch genau ausgestaltet werden, was da exakt drin ist, welche Daten und in welcher Form. Aber das ist so viel Fläche, wie Hubble angeguckt hat. Ja, nicht ganz in der Tiefe, nicht ganz in der Auflösung, wir haben eine halb so gute Auflösung wie Hubble, nicht. So, Hubble ist ein Faktor 2 besser. Aber das ist eine unglaubliche Fläche, da steckt so viel drin. So viele hunderttausend oder Millionen von Galaxien, Sternen und sonst was. Da können Leute wirklich ihre Instrumente dran schärfen für was immer an Datenanalysen, die sie machen wollen später. Da werden auch größere Mengen an Artikeln schon, Fachartikeln schon zu erscheinen. Und ein Jahr später kommen dann zweieinhalbtausend Quadratgraben. Das ist einfach eine Größenordnung, die man bisher von bodengebundenen Sachen kennt, aber nicht mit der Qualität oder der, und Qualität meine ich wirklich mit der Auflösung und der Tiefe und der Wellenlänge, wie wir sie bisher gehabt haben. Und das wird sehr interessant. So und zwei Jahre später kommt glaube ich dann siebeneinhalbtausend Quadratgrad und dann am Ende fünfzehntausend Quadratgrad. Und die gehen relativ bald an die Welt und das wird dann einfach für alles mögliche nutzbar sein, was Kosmologie und Nicht-Kosmologie ist. Ich suche eine Galaxie am Himmel irgendwo. Ich gehe ins Archiv und habe ein Bild davon. In einer hohen Auflösung.

Tim Pritlove
1:48:44
Knud Jahnke
1:49:16

Euclid hat, Euclid hat, also wenn ich eine einzelne Galaxie angucke, dann können wir natürlich nicht gegen Hubble oder JWST gegen anstinken. So wir haben eine Hälfte der Auflösung, was aber für, die meisten Galaxien im Universum durchaus Daten liefert. Hälfte von Hubble ist immer noch doppelt oder dreimal so gut wie vom Boden. Das heißt, es ist alles besser als das, was man vom Boden bekommt. Im Infraroten ist die Auflösung nicht ganz so gut, weil wir gröber gucken und weniger Pixel haben und wegen der Wellenlängen abhängigen Auflösungsgenauigkeit. Der Vergleich wäre aber auch hier wieder Boden. So und es gibt ein Tumors, das ist ein Survey, der über den größten Teil des Himmels geht, der ist sieben Magnituden heller, guckt der Sachen an, wenn da, wo dort keine Objekte mehr sichtbar ist, da fangen wir überhaupt erst an, Objekte zu sehen, weil alles, was heller ist, da saturieren wir und da sind wir dann halt in der Auflösung, in der räumlichen Auflösung sind wir um Faktor 5 oder sowas immer noch, also 5 besser als vom Boden. Hubble wird bei einzelnen Galaxien immer besser sein, aber wir können halt Dinge, wofür Hubble mehrere Wochen braucht, um sie häppchenweise abzuhaken und zu beobachten, das können wir dann in einem Schuss machen. Wir kommen dann auf Sachen, wo wir auch wahrscheinlich schwache Objekte sehen, die halt nicht ganz so schwach sind, aber wir kommen auf 24. Magnitude, das ist relativ schwach, auch schon was, was Hubble-Daten angeht. Und dann machen wir noch so sogenannte Deep Fields, wo wir 40 mal hingehen oder 50 mal hingehen im Laufe der Zeit und wo wir dann nochmal zwei Magnituden tiefer kommen. Da sind wir bei 26. Magnitude und wenn man mit Magnituden umgeht, das ist schon ziemlich flach und das sind dann halt 50 Quadratgrad, so viel wie Hubble insgesamt jemals angeschaut hat, aber tief.

Tim Pritlove
1:51:18
Knud Jahnke
1:51:23
Tim Pritlove
1:51:29
Knud Jahnke
1:51:34

Und es ist halt wirklich diese Kombination. Dinge, die man entweder vom Weltraum nicht in endlicher Zeit schaffen könnte, mit vorhandenen Teleskopen, oder die man vom Boden aus nie in der räumlichen Auflösung oder ganz, ganz schwierig in der Wellenlänge schaffen würde. Und das ist die Kombination. Und dafür ist es einfach eine relativ simple Sache. Man guckt sechs Jahre, sehr gezielt, mit einem sehr simplen Teleskop und bekommt diese Daten. Und viele, viele hundert KollegInnen, mich eingeschlossen, freuen sich darüber, aber die Sachen für alle anderen Sachen, alle anderen Wissenschaftsdinge brauchen zu können. Und dann am Ende ist vielleicht noch Treibstoff über und dann am Ende haben wir wahrscheinlich Lücken irgendwo in der Beobachtungszeit, wo wir nicht unseren Kosmologie-Survey machen müssen. Und dann werden vielleicht andere Vorschläge kommen, was man in der Zeit noch machen kann. Vielleicht steckt irgendjemand vor, wir gucken dann doch die Milchstraße an. So. Und da wird ganz spannend in, ich glaube, in drei bis vier Wochen demnächst kommt... Von der ESA so ein erstes Schmankerl raus, es wird einen ersten Satz von ein paar Early Release Observations geben, Pretty Pictures, schöne Objekte am Himmel, irgendwas mit Galaxien, die dann in die Öffentlichkeit gehen und im Januar sollen dann irgendwie auch die Pixel Daten folgen und das wird, ich hab ein, zwei solcher Sachen schon gesehen jetzt intern und das ist einfach atemberaubend schön, da freu ich mich selber drauf. Ich bin gespannt.

Tim Pritlove
1:53:13
Knud Jahnke
1:53:18
Tim Pritlove
1:53:19
Knud Jahnke
1:53:33
Tim Pritlove
1:54:45
Knud Jahnke
1:54:50
Tim Pritlove
1:56:01
Knud Jahnke
1:56:23
Tim Pritlove
1:56:52