Die Mathe-Redaktion - 24.04.2018 16:40 - Registrieren/Login
Auswahl
ListenpunktHome
ListenpunktAktuell und Interessant ai
ListenpunktArtikelübersicht/-suche
ListenpunktAlle Links / Mathe-Links
ListenpunktFach- & Sachbücher
ListenpunktMitglieder / Karte
ListenpunktRegistrieren/Login
ListenpunktArbeitsgruppen
ListenpunktSchwätz / Top 15
ListenpunktWerde Mathe-Millionär!
ListenpunktAnmeldung MPCT Juli
ListenpunktFormeleditor fedgeo
Schwarzes Brett
Aktion im Forum
Suche
Stichwortsuche in Artikeln und Links von Matheplanet
Suchen im Forum
Suchtipps

Bücher
Englische Bücher
Software
Suchbegriffe:
Mathematik bei amazon
Naturwissenschaft & Technik
In Partnerschaft mit Amazon.de
Kontakt
Mail an Matroid
[Keine Übungsaufgaben!]
Impressum

Bitte beachten Sie unsere Nutzungsbedingungen, die Distanzierung, unsere Datenschutzerklärung und
die Forumregeln.

Sie können Mitglied werden oder den Newsletter bestellen.

Der Newsletter Okt. 2017

Für Mitglieder
Mathematisch für Anfänger
Wer ist Online
Aktuell sind 722 Gäste und 22 Mitglieder online.

Sie können Mitglied werden:
Klick hier.

Über Matheplanet
 
Physik: Im Zentrum der Milchstraße
Freigegeben von matroid am Mi. 07. März 2018 20:49:18
Verfasst von Ueli -   381 x gelesen [Gliederung] [Statistik] Druckbare Version Druckerfreundliche Version
Physik

\(\begingroup\)

Im Zentrum der Milchstraße


Im April 2017 wurden Radioteleskope von der Antarktis bis nach Frankreich auf das Zentrum unserer Galaxis ausgerichtet. Das Ziel ist, den Schatten des schwarzen Loches Sagittarius A* abzubilden. Es wäre die vorläufig letzte einer Reihe von Messungen, die unser Verständnis der allgemeinen Relativitätstheorie erweitern oder einfach die erwarteten Effekte bestätigen. Bereits die ersten klassischen Messungen zur Bestätigung der allgemeinen Relativitätstheorie waren zur jeweiligen Zeit enorm herausfordernd. So zweifelte Einstein immer wieder, dass bestimmte Messungen zur allgemeine Relativitätstheorie überhaupt möglich seien. Seine Skepsis hatte sich nicht bewahrheitet. Daher soll jetzt nach der Messung der Gravitationswellen, die den Raum nur ganz gering verzerren, die stärkste Wirkung der Gravitation überprüft werden. Trotz der verschiedenen starken Wirkungen sind die Messungen doch ähnlich anspruchsvoll. Während bei der Gravitationswellen-Messung Abstände von einigen $10^{-19} m$ gemessen werden, liegt das Problem beim schwarzen Loch in der Winkelauflösung von 20 Mikro-Bogensekunden begründet.
Was könnte nun aber das Besondere an dieser Messung sein? Nach einer Reihe von Experimenten haben sich die grundlegenden physikalischen Theorien immer wieder bestätigt. Sei es das Standardmodell der Teilchenphysik oder die allgemeine Relativitätstheorie, die Abweichungen zwischen Messung und Theorie blieben aus. Dabei haben insbesondere am CERN viele Physiker auf ein unerwartetes Ergebnis gehofft, das den Weg zu einer umfassenden Theorie aufzeigt.



Bei der Vermessung der schwarzen Löcher sind verschiedene Szenarien denkbar:
1. Die Messungen zeigen keine Abweichungen und die allgemeine Relativitätstheorie (ART) wird auch in diesem Fall bestätigt.
2. Es zeigen sich unerwartete Effekte, die aber im Rahmen der aktuellen Theorien erklärt werden können.
3. Die Messung ist zu ungenau, so dass sowohl die ART, als auch alternative Theorien wahr sein könnten.
4. Die Abweichungen zur ART sind eindeutig.

Die Mehrheit der Wissenschaftler wird eine wiederholte Bestätigung der ART erwarten und eventuell darauf hoffen, dass noch etwas unerwartetes auftritt. Enttäuschend, aber möglich wäre natürlich auch Variante 3, denn in diesem Fall ist der Erkenntnisgewinn am geringsten. Am Ende dieses Artikels werde ich kurz darauf eingehen, wieso ich persönlich Variante 4 für möglich halte.





Bildnachweis: Monika Moscibrodzka (Radboud University)
Ein simuliertes Bild eines supermassiven schwarzen Lochs im Zentrum einer Galaxie (M87). In der Mitte ist eine Art Schatten zu sehen. Diesen hofft man zu entdecken. Oft werden, wie hier, zwei Bild-Varianten nebeneinander gestellt. Links die hoch aufgelöste Simulation und rechts die weich gezeichnete Variante, die man bestenfalls mit den Teleskopen erkennen könnte. (Dieses und weitere Bilder stammen von hier. Leider sind die Überschriften der ESO falsch.)

Die Messungen


Bisher hat man noch kein Schwarzes Loch direkt beobachtet. Bei einem Objekt, das kein Licht abgibt, ist das natürlich nicht weiter verwunderlich. Man muss die Sache deshalb anders angehen und nach indirekten Wirkungen suchen. Darum hat man verschiedene Messkampagnen unter den Begriffen "Black-Hole-Cam" und "Event-Horizon-Telescope" bzw. "EHT" gestartet.
Zunächst wurden im Rahmen des Black Hole Cam Projekts die Bahnen von etwa 30 Sternen um das schwarze Loch herum aufgezeichnet. Aus den Bahnparametern konnte man auf die Masse im Zentrum schließen, das schwarze Loch mit dem Namen Sagittarius A* mit etwa 4 Millionen Sonnenmassen. Außer diesem wurde neulich noch ein zweites gefunden, mit hunderttausend Sonnenmassen.
Das Ziel ist jetzt, die gravitativen Effekte in unmittelbarer Nähe des schwarzen Loches zu beobachten und mit dem Event-Horizon-Teleskop gar den Schatten von SgrA* selbst, denn es ist zwar klar, dass es eine gewaltige Masse gibt, doch noch nicht, wie sich die Raumzeit in unmittelbarer Umgebung davon verhält.

Messgrößen


Zuerst ist es wichtig, eine Vorstellung von den astronomischen Größen zu haben.
Abstände in großer Entfernung werden normalerweise mit ihrer scheinbaren Größe angegeben. Dies ist der Winkel, unter dem man zwei Objekte bzw. die beiden Ränder eines Objektes sieht. Die wahre Größe hängt dann natürlich von der Entfernung der Objekte ab. Den Abstand in der dritten Dimension, also wenn ein Objekt etwas weiter entfernt ist als das andere, diesen Abstand kann man leider nicht direkt sehen. Aus den gemessenen Bahndaten kann man die wahren Abstände jedoch oft rekonstruieren.

Betrachten wir nun das Zentrum der Milchstraße. Dieses ist 26'000 Lichtjahre von der Erde entfernt.
Für die scheinbaren Abstände im galaktischen Zentrum erhält man:
$$1°=26000LJ\cdot 2\pi/360=454LJ$$ Vergleich: Der Vollmond in etwa 1.5Ls Entfernung hat eine scheinbare Größe von etwas mehr als einem halben Grad.
$$1'=1arcmin=7.6LJ$$ 1' kann das menschliche Auge maximal auflösen. Blickt man also auf den Mond, so sollte ein Krater, dessen Durchmesser 1/30 des Mondes ist, bei günstiger Beleuchtung gerade noch erkennbar sein.
$$1''=1arcsec=1'000mas=10^6\mu as=1/8LJ=1.5LMt=4\cdot 10^6 Ls$$ 1" stellt für die Amateur-Astronomie die Grenze dar, die mit bloßem Auge bei einem Teleskop mit 14cm Durchmesser und einer Vergrößerung von 60 bereits erreicht wird. Eine weitere Vergrößerung macht Sinn, damit man nicht so angestrengt schauen muss und ein größeres Teleskop kann mehr Licht sammeln, aber der Detailreichtum kann mit einfachen Mitteln nicht mehr erhöht werden. Dies liegt an der Luftunruhe, worauf im folgenden Kapitel "Teleskope" noch genauer eingegangen wird.

Was erwartet man nun zu sehen?
Zuerst die schlechten Nachrichten:
-Das schwarze Loch SgrA* hat einen Durchmesser von nur 75Ls, bzw. 19µas. (Kreis in der Zeichnung unten). Im Verhältnis zu den 26'000 Lichtjahren Abstand ist das 1:10 Milliarden. Auf dem Mond entspricht dies einer scheinbaren Grösse von 3.5cm oder auf den Durchmesser der Erde bezogen einem Millimeter.
-Die Auflösungsgrenze vergrößert die hellen Bereiche auf Kosten der dunklen. Es ist also viel schwieriger, dunkle Bereiche zu sehen, als helle.
Nun aber doch noch eine positive Nachricht:
-Der Bereich um SgrA*, in dem die Krümmung des Raumes noch messbare Effekte zeigt, wurde in Simulationen zu 53µas ermittelt, also fast dreimal größer als der Ereignishorizont selbst. In der Galaxis M87 sollten es immerhin noch 22µas sein.

Die Zeichnung unten soll veranschaulichen, was man etwa sehen könnte:





Der Ereignishorizont hat einen Radius von $r_h=2GM/c^2$. Dieser ist als oranger Kreis veranschaulicht. Die Akkretionsscheibe um das schwarze Loch besteht aus Plasma, das teilweise in das Loch fällt, aber auch weggeschleudert werden kann. Auf der Seite, auf der sich das Plasma auf uns zu bewegt, sollte es hell strahlen (im Bild links), auf der anderen Seite erscheint es stark rotverschoben und daher dunkel. Die innerste Bahn, auf der ein massives Teilchen um das schwarze Loch kreisen kann, ohne hinein zu fallen, liegt bei $r_{ISCO}=6GM/c^2$. Diese Bahn wird ISCO genannt (innermost circular orbit). Für Licht liegt dieser Radius hingegen bei $r_c=3GM/c^2$. Obwohl es so im Namen des Teleskops steht, kann man den Ereignishorizont also gar nicht sehen. Nicht nur, weil er kein Licht ausstrahlt, sondern weil auch das meiste Licht in der Nähe nicht nach außen dringt.
Wesentlich ist auch, aus welchem Winkel man auf die Scheibe schaut. Am schönsten wäre es natürlich, rechtwinklig auf die Rotationsebene zu sehen. Dies ist aber kaum zu erwarten, da das Schwarze Loch eher in derselben galaktischen Ebene rotiert, in der wir uns auch befinden. Das Bild wird somit perspektivisch verzerrt sein. Zudem wirken sich der Doppler-Effekt und das Frame-Dragging der Rotation aus. (Der Raum um das schwarze Loch nimmt auch Drehimpuls auf und wird somit mitgezogen).

Indirekte Messungen


Neben der direkten Messung, die jetzt ansteht, gibt es schon lange indirekte Messungen, mit denen man die Position vieler schwarzer Löcher bestimmt hat. Hier verweise ich auf die Darstellung von Andreas Müller. Die gravitative Wirkung zwingt die Sterne auf enge und schnelle Bahnen, in deren Brennpunkt sich SgrA* befinden muss. Einer der nächsten Sterne die beobachtet wurden (S2) nähert sich SgrA* bis auf 50'000Ls und entfernt sich auf fast 1Mio. Ls. Der Fleck bzw. das Beugungsscheibchen in der Darstellung ist etwa halb so groß wie die Bahn des Sterns um SgrA*. Der Stern ist mit 30Ls Durchmesser zwar viel größer als die Sonne, aber immer noch weit unter der Auflösungsgrenze. Daher erscheint er etwa 20'000 mal größer als mit einer theoretisch perfekten Strahlen-Optik.





Bildnachweis: ESO
Das linke Bild zeigt einen Ausschnitt von ungefähr 2 x 2 Bogensekunden (1/8 LJ, bzw. 46Ld). Die Aufnahme wurde im Infrarotbereich gemacht bei 2.1 µm Wellenlänge. Die Auflösung beträgt 60mas, bzw. 240'000Ls. Die Zahlen auf der Bahnkurve bezeichnen den Zeitpunkt der Beobachtung in Bruchteilen des Jahres.

Teleskope


Um ins Zentrum unserer Galaxie zu schauen, benötigt man Teleskope. Aber wie muss ein solches beschaffen sein?

Beugungsscheibchen


Das Licht hat die "unangenehme" Eigenschaft, sich nicht an die geometrische Strahlengeometrie zu halten, sondern an die Wellenausbreitung. Baut man ein größeres Teleskop, so gewinnt man mehr Licht und kann dunklere, beziehungsweise weiter entfernte Objekte des Kosmos sehen. Bei nahe zusammenstehenden Objekten, also beispielsweise Doppelsternen, zeigen sich aber schnell einmal die Grenzen der Auflösung. Ein praktisch punktförmiges Objekt wird nicht auf einen Punkt abgebildet, sondern erzeugt einen verwaschenen Fleck mit Ringen darum herum, ein Beugungs- beziehungsweise Airy-Scheibchen. Im ESO-Bild oben ist das sehr gut zu erkennen. In den folgenden Grafiken sind einige berechnete Beugungsscheibchen zu sehen:


   
       
       
   

Diese Simulationen zeigen das Abbild eines "punktförmigen", fernen Objekts.
Das Wellenbild links stellt die nicht ideale Fokussierung nach einer dielektrischen Linse dar. Abgebildet auf einen ebenen Schirm ergibt sich das Beugungsscheibchen rechts.

Die Linse ist hier natürlich sehr klein gegenüber der Wellenlänge. Normalerweise ist die Wellenlänge millionenfach kürzer als die Linse. Dafür sieht man hier die Unschärfe sehr deutlich. Anstelle auf den Brennpunktes der geometrischen Optik wird die Wellenfront auf einen länglichen Fleck projiziert. Man kann sich leicht vorstellen, dass nahe gelegene Objekte in der Abbildung miteinander verschmelzen, wie bei den Beugungsscheibchen in den folgenden Abbildungen.


   
       
       
   

Hier sind zwei Objekte gezeigt, die man gerade noch unterscheiden kann (die Definition von "unterscheidbar" ist natürlich etwas willkürlich, man sieht noch eine gewisse dunkle Einschnürung zwischen den Objekten). Links sind beide Objekte gleich hell, im Bild rechts ist das erste Objekt nur halb so hell.

Auflösung in der Theorie



Bezogen auf den Sichtwinkel des Teleskopes in Radiant ist der Durchmesser des Beugungsscheibchens:
$$\theta=2.44\cdot\lambda/D$$
wobei D den Durchmesser der Teleskopöffung bezeichnet und $\lambda$ die Wellenlänge des Lichts. Als Auflösung bezeichnet man etwa den halben Durchmesser des Beugungsscheibchens, also die Distanz vom hellsten Teil bis zum ersten Minimum (diese Kriterien sind etwas willkürlich und mit weiteren Informationen kann auch eine feinere Auflösung erzielt werden).
Die Wellenlänge $\lambda$ für das gut sichtbare gelbe Licht liegt bei 550nm. Daraus wurde für die Praxis folgende Formel abgeleitet:
$$\theta(")=138(mm)/D(mm)$$ wobei der Winkel jetzt in Bogensekunden angegeben ist.
Der Winkel ist nur halb so groß wie bei der ersten Formel, da er sich auf die Trennschärfe bei optischer Beobachtung bezieht. Es gibt also den Winkel an, bei dem man zwei Sterne noch auseinanderhalten kann bei genügender Vergrößerung und optischer Betrachtung.
Die Berechnung der Beugungsscheibchen ist einigermaßen kompliziert. Man kann die Auflösung aber näherungsweise bestimmen, indem man den Winkel des Dreiecks bestimmt, welches aus der Apertur (Teleskop-Durchmesser) und der Wellenlänge gebildet wird. Damit erhalten wir bei einer Teleskopöffnung von 0.138m und einer Wellenlänge von 550nm einen Winkel von $$550nm/(0.138m\cdot 2\pi)=634\cdot 10^{-9}rad=0.82arcsec$$
Normalerweise ist diese Abschätzung genügend.


Die Probleme der Praxis


Ein größeres Teleskop bedeutet bei gleicher Wellenlänge eine bessere Trennschärfe. Eine nachträgliche Vergrößerung nützt nichts, denn die unscharfen Flecken werden einfach nur grösser dargestellt. Um weit entfernte Objekte zu betrachten, braucht man daher große Teleskope. Zurzeit gibt es einige Teleskope mit etwa 10m Durchmesser. Damit hat man theoretisch eine Auflösung von 14mas (0.014"). Leider stehen dieser Auflösung einige Hindernisse im Weg.

Der limitierende Faktor, der zuerst auftritt, ist die Luftunruhe. Das Licht bricht sich in den verschieden warmen Luftschichten wie in einer Linse aus Wackelpudding. Dadurch wird die Auflösung auf 1" beschränkt. Ein ideales Teleskop mit mehr als 14cm Spiegeldurchmesser macht somit keinen Sinn, außer man benötigt mehr Licht, um schwache Objekte zu sehen. Ein weiteres Problem ist rein statischer Natur. Große, bewegliche Spiegel zu bauen, die sich nicht einen Mikrometer verformen dürfen, ist eine echte Herausforderung. So wurden die Spiegel immer massiver (z.B.60cm Dicke bei 3.6m Öffnung), dazu kommen gewaltigen Schutzbauten.

Lösungen


Die Luftunruhe lässt sich vermindern, wenn das Teleskop in großer Höhe und in trockenem Klima aufgestellt wird. Die Auflösung steigt dann auf bis etwa 200mas. Das Very Large Telescope der Europäischen Südsternwarte in Chile liegt auf 2635m, das Gran Telescopio Canarias auf 2267m und die Keck Teleskope auf Hawaii stehen gar auf 4200m. Ganz gelöst wurde das Problem mit dem Hubble Space Telescope (HST). Dieses hat zwar "nur" einen 2.4m Spiegel, erreicht damit aber die volle mögliche Auflösung von 50mas.

Der Bau von großen Teleskopen auf der Erde wurde erst durch aktive Spiegel möglich. Dabei wird der Spiegel nicht durch die massive Bauweise in Form gehalten, sondern durch "Leichtbauweise" und Stellmotoren (die Positioniergenauigkeit beträgt bis zu 2nm), die die unvermeidlichen Verformungen durch Temperatur, Winddruck und Eigengewicht immer wieder ausgleichen. Damit kann die Auflösung zwar nicht verbessert werden, aber sie verschlechtert sich auch nicht, wenn man große Teleskope für lichtschwache Objekte baut. Teleskope über 4m bestehen zudem normalerweise aus einer Anzahl kleinerer Spiegel.

Der entscheidende Fortschritt für die Auflösung wurde mit der adaptiven Optik erzielt. Während die aktive Optik die statischen Verformungen des Spiegels korrigiert, leistet dies die adaptive Optik für die dynamische Luftunruhe. Dazu braucht es ein Sensorsystem (oft wird die Luftunruhe mit einem Leitstern, einem Laserstrahl gemessen). Der Spiegel wird dann mit schnellen Aktoren so verformt, dass die Störungen und Fehler ausgeglichen werden. Die adaptive Optik erlaubt mittlerweile bessere Auflösungen als das HST. Es lohnt sich daher nicht mehr Teleskope für den sichtbaren Bereich in den Weltraum zu schicken.

Mit adaptiver Optik und einem 10m Teleskop kann man theoretisch 14mas erreichen. Nach meiner Kenntnis werden sogar bis zu 10mas erreicht. Das ist immer noch weit entfernt von 53µas, also dem scheinbaren Durchmesser von SgrA*. Ein kilometergroßes Teleskop zu bauen ist nicht realistisch, aber die Technik der Interferometrie bietet erneut einen Ausweg. Anstatt ein großes Teleskop zu verwenden, schaltet man einige kleinere Teleskope zusammen, die möglichst weit auseinander liegen. Das Prinzip wird in der folgenden Grafik veranschaulicht.

Für die Auflösung ist der Durchmesser des Teleskops entscheidend. Der mittlere Teil des Spiegels wird dafür nicht gebraucht (2). Die Teleskope am Rand des virtuellen Großteleskops nehmen nun die Strahlung auf. Da man sie nicht auf fahrbaren Liften montieren kann, muss man die Laufzeitverzögerungen durch ein Spiegelsystem korrigieren (3). Die Spiegel müssen so bewegt werden können, dass sich die Lichtstrahlen genau so treffen, wie wenn sie vom Rand des Großteleskops kämen. Um die maximale Auflösung zu erreichen, müssen die Spiegel wiederum genauer als 1µm gestellt werden. Mit den Teleskopen des VLT wird die Auflösung auf 1mas gesteigert. Die maximale Basislänge beträgt 130m, somit wird die physikalische Grenze ausgeschöpft, für SgrA* ist das aber immer noch mindestens 20mal zu grob.

Die Technik ist somit vorhanden, an der Größe mangelt es aber noch. Zwei Möglichkeiten stehen offen: entweder man dehnt den Abstand der optischen Teleskope auf 2.5km und hofft auf eine erschütterungsfreie Zeit oder man verwendet Millimeterwellen und erhöht den Abstand der Teleskope auf 10'000km. Damit sind wir bei der Very Long Baseline Interferometry (VLBI). Man verwendet dazu Teleskope auf verschiedenen Kontinenten. Doch wie werden sie zusammengeschaltet? Radiowellen mit einer Wellenlänge von gut einem Millimeter sind gerade noch elektronisch zu verarbeiten und zu speichern. Versehen mit einem genauen Zeitstempel kann man sie dann später auf einem Rechner Interferieren lassen.
Eine gute Erklärung dazu findet sich hier.

Es ergeben sich somit folgende Bedingungen an das Teleskop:
-Die messbare Strahlung muss in der Nähe des schwarzen Lochs entstehen (in der Akkretionsscheibe).
-Die elektromagnetischen Wellen müssen das galaktische Zentrum durchqueren können.
-Unsere Lufthülle muss sie ebenfalls in brauchbarer Qualität durch lassen.
-Die Wellenlänge sollte höchstens 1mm betragen, damit die Basislinie auf der Erde ausreicht (Erddurchmesser).

Diese Forderungen werden erfüllt durch Mikrowellenstrahlung (oft auch schon Terahertzwellen genannt) mit den Frequenzen von 230GHz und 345GHz. Die atmosphärische Dämpfung ist allerdings oberhalb von 100GHz schon sehr stark. Daher ist auch hier wichtig, dass die Radioteleskope in großer Höhe stehen und dass die Luft möglichst trocken ist.
Um die Basislinie möglichst lang zu gestalten, wurden Teleskope in den USA, auf Hawaii, in Mexiko, Spanien und Frankreich, in Chile und auch am Südpol eingesetzt. Sehr schön ist das auf dieser interaktiven Karte zu sehen. Weitere Teleskope wie das "Greenland Telescope Project" werden bei späteren Messkampagnen folgen.

Datenflut


Im April 2017 wurden 10 Tage lang Daten erfasst. Die beteiligten Teleskope waren:
ALMA, APEX (Chile), IRAM 30m (Spanien), LMT, (Mexiko), SMT (Arizona), JCMT (Hawaii), SMA (Hawaii) und SPT (Südpol).
Um aus den Daten ein Bild zu rekonstruieren, ist es nötig, die Phasen der Schwingungen zu vergleichen. Somit muss man für jedes Teleskop einen genauen Zeitstempel haben und die Messung muss aufgezeichnet werden. Dies geschieht mit einer Datenrate von 16 Gigasample/Sekunde und ergibt einige Petabytes von jedem Teleskop. Bedenkt man, dass 1 Petabyte 1000 Terabytes entspricht, so kann man sich leicht vorstellen, dass eine ganze Lastwagenladung von Harddisks zusammen kommt (genügend schnelle Datenleitungen gibt es nicht, denn die Teleskope liegen immer in abgelegenen Regionen). Diese Festplatten musste man physisch zum Max Planck Institut für Radioastronomie in Bonn transportieren. Bei den Daten vom Südpol-Teleskop dauerte es bis zum Dezember 2017, bis ein Transport möglich wurde.
Nun werden die Daten ausgewertet. Mit einem Resultat kann man im Verlauf dieses Jahres rechnen.
 

Moderne experimentelle Physik


Bei dieser Gelegenheit möchte ich noch etwas zur Entwicklung der physikalischen Forschung sagen:
Lange Zeit genügte eine einfache oder zumindest gut nachvollziehbare Messung, um eine Theorie zu stürzen oder zu bestätigen. Mit leistungsstarken Computern konnte man schließlich Experimente zuerst simulieren, um die erwarteten Effekte gezielt zu suchen. Mit "Big Data" wird auch das Experiment bzw. die Messung immer mehr zu einer Angelegenheit der Maschinen. Die Filter, die die Spreu vom Weizen trennen sollen, sind oft neuronale Netze, die mit unseren Erwartungen gefüttert werden. Wenn wir von einem neuen Teilchen lesen oder von Gravitationswellen, ist dies immer das Resultat einer gigantischen Maschinerie, die niemand vollständig versteht. Es ist daher wichtig, dass verschiedene Messungen und auch verschiedene Auswertungen das Ergebnis bestärken.

Schwarze Löcher


Die experimentelle Bestätigung ist absolut grundlegend für eine physikalische Theorie. Schon zu oft wurde geglaubt, dass es keine Überraschungen mehr gibt im physikalischen Weltbild. Hier steht die allgemeine Relativitätstheorie sehr gut da. Seit über einhundert Jahren wurde sie immer wieder glänzend bestätigt. Somit ist es eine ausgesprochen gute Theorie. Dieser Eindruck geht zurück bis auf die Entstehung der Theorie. Hilbert und auch Einstein beschritten dabei den Königsweg der Physik. Aufbauend auf einigen Grundannahmen leiteten sie die Theorie mithilfe rein mathematischer Folgerungen ab. Die Ableitungen erscheinen nicht nur zweckmäßig, sondern sogar zwingend. Wie aber kommt man mit dieser Theorie zu solch seltsamen Objekten wie den schwarzen Löchern? Dazu sind hier einige historische Daten zusammengestellt.

Newtons Universum


Nach Newtons Theorie gab es eine distanzabhängige Kraft zwischen den Himmelskörpern. Diese ist abhängig von den Massen der Körper und der Entfernung zwischen diesen. Bereits in diesem mechanischen Universum waren schwarze Löcher denkbar. Reverend John Michell hat im Jahr 1783 dunkle Sterne vermutet. Auf Basis der Newtonschen Mechanik, die das Licht wie ein massebehaftetes Teilchen ansah (genauso wie Kanonenkugeln), unterliegen auch die Lichtteilchen der Fluchtgeschwindigkeit. Ein massiver Stern mit einer Fluchtgeschwindigkeit von 300'000km/s auf seiner Oberfläche könnte somit auch nach klassischer Vorstellung kein Licht mehr abstrahlen.

Nach diesem Rückblick in das mechanische Universum noch einige Worte zur Theoriegeschichte.
Es war, wie so oft, Leonhard Euler, welcher der Feldtheorie zu einem großem Fortschritt verhalf. Seine Potentialtheorie wurde von Lagrange aufgenommen und bekannt gemacht.
Das Vektorfeld, wie wir es von Newton her kennen, wird dabei aus dem Potentialfeld durch Gradientenbildung gewonnen. Das Vektorfeld kann damit durch ein Skalarfeld beschrieben werden. Dieses gibt in jedem Punkt des Raumes die Feldenergie an. Betrachtet man nur eine Ebene des Raumes und das Potential als Erhebung, so wird die Gravitation zu einer Hügellandschaft. Die großen Massen liegen in den Tälern oder in kleineren Mulden und erfahren eine Kraft in Richtung des größten Gefälles. Mathematisch wird dieses Potential durch die Poisson-Gleichung beschrieben. Eine Form der mittleren Krümmung dieser Energie-Niveau Fläche entspricht der Massendichte. Dort wo sich keine Masse befindet, heben sich die zweiten Richtungsableitungen auf.
$$\Delta \Phi(r)=4\pi G \rho(r)$$Es bestehen also bereits in der klassischen Feldtheorie gewisse Ähnlichkeiten zur allgemeinen Relativitätstheorie. Dies ist nicht weiter verwunderlich, denn im Grenzfall schwacher Felder und geringer Geschwindigkeiten nähern sich die Theorien einander stark an. Aus heutiger Sicht erscheint auch die Ersetzung der Potential-Landschaft durch einen gekrümmten Raum nicht allzu weit hergeholt.

Einsteins Feldgleichungen


Als Einstein sich der Gravitation annahm, wurde von den meisten Physikern keine Notwendigkeit gesehen, Newtons Theorie zu revidieren. Und obwohl die Potentialtheorie einen Schritt in die richtige Richtung geht, hatte Einstein einige gewaltige Hürden zu überwinden, um diese Transformation zum Erfolg zu führen. Zum einen musste die spezielle Relativitätstheorie berücksichtigt werden. Selbst die flache Minkowski Raumzeit wird dadurch um einiges schwieriger zu handhaben als Newtons starre Raum-Zeit Bühne. Dieser Raum wurde nun zusätzlich einer Krümmung unterworfen. Hierfür benötigte er die Riemannsche Geometrie, welche er vor allem mit Marcel Grossmann zusammen (einem Mathematikprofessor an der ETH) auf das Gravitationsproblem übertrug. Dabei mussten sie sich um die Kovarianz der Gleichungen kümmern. Egal in welchem Koordinatensystem formuliert, es muss immer dieselbe physikalische Situation beschrieben werden. Dazu kommt noch eine Erschwernis. In der Poissongleichung ist auf der rechten Seite die Massendichte als Quelle der Gravitation aufgeführt. Da aber Masse und Energie äquivalent sind, muss die Masse mit allen Formen der Energie ergänzt werden. Auf der rechten Seite wird die Masse daher ersetzt durch den Energie-Impuls-Tensor. Darin ist die Masse natürlich enthalten, aber auch der Impuls, Druck und Scherkräfte. Der Operator auf der linken Seite, der die Geometrie beschreibt, muss nun ebenfalls die Form des E-I-Tensors haben. Einstein probierte mehrmals verschiedene Tensoren aus. Am aussichtsreichsten erwies sich der Ricci-Tensor, der aus dem Riemannschen Krümmungstensor gewonnen wird und diesen um zwei Stufen verjüngt. Mathematisch war die Gleichung nun in Ordnung, es gab aber noch ein physikalisches Problem. Der Energie-Impulstensor T ist divergenzfrei (Energie und Impuls bleiben erhalten). Nicht so der Ricci-Tensor. Die geometrische Seite der Gleichung musste also noch korrigiert werden. Der Term dazu besteht aus dem Krümmungsskalar R (einer weiteren Verjüngung des Ricci-Tensors) und dem metrischen Tensor $g_{uv}$.
$$R_{uv}-\frac{1}{2}g_{uv}R:=G_{uv}=\frac{8\pi G}{c^4} T_{uv}$$Nach jahrelangen Bemühungen und gegen Schluss in einem Wettlauf mit Hilbert, hat Einstein die Gleichung gefunden, welche die Gravitation beschreibt. Die zuerst beschriebene Poissongleichung kann für viele Randwerte exakt gelöst werden. Bei der Einsteinschen Gleichung wird das aber sehr viel schwieriger. Jede der 10 unabhängigen Komponenten bestimmt eine partielle Differentialgleichung. Dazu kommt die sogenannte Hintergrundunabhängigkeit, was bedeutet, dass Raum und Feld nicht mehr getrennt werden können. Die Lösung der Gleichung beeinflusst auch den Ort, wo diese Gleichung gelöst wird. Es ergibt sich dadurch eine nichtlineare Rückkopplung.
Die Feldgleichungen waren gefunden, doch sind sie auch global lösbar?

Schwarzschilds Nachricht


An Weihnachten 1915 erhielt Einstein einen Brief von Karl Schwarzschild. Dieser war an der russischen Front, wo er nicht nur Geschossbahnen berechnete, sondern auch geodätische Bahnen in Einsteins Raumzeit. Dabei fand er auch die Lösung für das statische Feld einer kugelsymmetrischen, homogenen Masse. Dabei stieß er auch auf das Gebiet, dass wir heute als schwarzes Loch bezeichnen. Schwarzschild fragte Einstein, ob er wisse woher diese Grenze herkomme, innerhalb der es keine physikalisch sinnvolle Lösung mehr gebe. Einstein ging auf das Problem nicht ein und es dauerte Jahrzehnte, bis das Interesse an schwarzen Löchern wieder geweckt wurde.
Leider verstarb Schwarzschild kurz darauf. Er fiel nicht an der Front, sondern erlag einer Autoimmunkrankheit.

Die Schwarzschildlösung wird üblicherweise mit dem Linienelement angegeben. Die Riemannsche Mannigfaltigkeit wird auf einen ebenen Raum mit den Kugelkoordinaten ($t,r,\theta,\phi$) abgebildet.
$$ds^2=(1-\frac{r_s}{r})\cdot dt^2-(1-\frac{r_s}{r})^{-1}\cdot dr^2-r^2\cdot d\theta^2-r^2 sin^2(\theta)\cdot d\phi^2$$Der Schwarzschildradius $r_s$ bezeichnet den Ereignishorizont, also das eigentliche Loch. In metrischen Einheiten ist $r_s=\frac{2MG}{c^2}$, wobei M für die Masse des Sterns steht, G für die Gravitationskonstante und c für die Lichtgeschwindigkeit.

Erneutes Interesse


Was passiert, wenn ein Stern kollabiert? Schwarzschild bestimmte seine Lösungen mit der Annahme einer homogenen Masse. In Wirklichkeit haben aber Quanteneffekte und Kernkräfte einen wesentlichen Einfluss auf den Prozess des Zusammenbruchs. Man nahm also allgemein an, dass ein schwarzes Loch gar nicht erst entstehen könne. Die Entdeckung von Quasaren ("Punktförmige" extrem helle Radioquellen in großer Entfernung) 1963 führte zu einem Umdenken. Diese Objekte sind kleiner als unser Sonnensystem, erzeugen aber bis zu 10'000 mal mehr Energie als alle Sterne der Milchstraße zusammen. Dies überzeugte auch J.A. Wheeler. Auch wenn er den Begriff "Schwarzes Loch" nicht erfunden haben mag, so hat er ihn doch bekannt gemacht. Auch das "no hair theorem" stammt von ihm (Ein schwarzes Loch hat keine Haare, d.h. keine Struktur, wie eine Sonnenoberfläche).
Ich möchte noch hinzufügen, dass die Nennung einiger Begriffe in dieser kurzen Zusammenstellung der wissenschaftlichen Arbeit der genannten Forscher in keiner Weise gerecht werden kann.

Das neue Interesse führte auch dazu, dass die Eigenschaften schwarzer Löcher genauer untersucht wurden. Wie weit kann man sich in einer Kreisbahn dem schwarzen Loch nähern, bis man unweigerlich hineinfällt? Die folgende vereinfachte Ray-tracing Simulation zeigt einige Lichtstrahlen, die durch das schwarze Loch abgelenkt werden.

Lichtstrahlen um ein schwarzes Loch
Die Farbe gibt die Zeit an, die das Licht unterwegs war und nicht etwa die Rotverschiebung. Der äußere schwarze Kreis kennzeichnet den Ereignishorizont. Wie man erkennt, fallen die Lichtstrahlen nicht erst ins schwarze Loch, wenn sie den Ereignishorizont tangieren, sondern sie werden bereits weiter außerhalb zum Ereignishorizont hingelenkt. (Die Vereinfachungen in der Simulation führen dazu, dass das Licht in größerer Entfernung und nicht bei 1.5 Schwarzschildradien einschwenken.) Anstatt dass die Lichtstrahlen in das Loch hinein fallen, bewegen sie sich asymptotisch darauf zu, bleiben also sozusagen vor der Pforte stehen.

Die Kerr Lösung


Wie jeder Himmelskörper besitzt auch das schwarze Loch einen Drehimpuls. Dies ist jedoch in der Schwarzschildlösung nicht berücksichtigt. Erst 1963 fand der Neuseeländer Roy Patrick Kerr dafür eine Lösung. Wie schon Einstein bemerkte, sind Lösungen für seine Gleichungen schwer zu finden. Schwarzschild machte eine Reihe von Symmetrie-Überlegungen und konnte damit den Rechenaufwand enorm reduzieren. Kerr hingegen gab seine Lösung in kartesischen Koordinaten an, was die ohnehin schwierige Berechnung nochmals stark verkompliziert. Heute wird diese Geometrie in angepassten Koordinaten, wie den Boyer-Lindquist-Koordinaten oder den Kerr-Schild-Koordinaten beschrieben.

Popularisierung


Spätestens seit 1988 das Buch "Eine kurze Geschichte der Zeit" von Stephen Hawking erschienen ist, verbinden viele Leute schwarze Löcher mit ihm als Person. Der Herausgeber wollte ein Buch ohne Formeln, um eine möglichst große Breitenwirkung zu erzielen. Das Buch wurde ein großer Erfolg, trotz der einzigen Formel $E=m c^2$ darin. Hawking hatte, lange bevor er breite Bekanntheit erlangt hatte, über dem Thema geforscht. Wer mehr über die Hintergründe erfahren will, dem empfehle ich das Buch: "Raum und Zeit" über die wissenschaftliche Debatte zwischen Stephen Hawking und Roger Penrose.

Alternative Theorien


Wenig scheint in der Physik so sicher zu sein, wie die Relativitätstheorie. Wenn man nun bei den beschriebenen Messungen kein schwarzes Loch sehen würde, eine unerwartet stark verzerrte Version oder gar ein grösseres Abbild, müsste man die allgemeine Relativitätstheorie dann in Frage stellen und eventuell eine andere Theorie suchen?
Es gibt zur ART tatsächlich alternative Modelle, die seit einiger Zeit wieder in den Blickpunkt gerückt sind, von denen ich hier eines vorstellen möchte.
Zunächst gibt es Theorien, die mit der ART im wesentlichen übereinstimmen, aber zusätzlich Phänomene aus der Quantenwelt berücksichtigen. Als Beispiel sei das Modell des Gravastern genannt. Die Materie würde dabei nicht ganz zu einem schwarzen Loch kollabieren und es gäbe daher auch keine Singularitäten.
Im Gegensatz dazu unterscheiden sich Theorien die eine variable Lichtgeschwindigkeit voraussetzen, bereits im Ansatz von der ART. Sie werden unter dem Begriff "VSL" (variable speed of light) zusammengefasst und sind weitgehend unbekannt, daher etwas zur Entstehungsgeschichte:

Ein geschichtlicher Rückblick auf die VSL-Theorien


In einer Reihe von Arbeiten ging Einstein der Gravitation auf den Grund mit verschiedenen Ansätzen. Ein Aufsatz von 1911 betraf die (Lichtablenkung) am Sonnenrand. Das Resultat war zwar falsch (es kam nur die Hälfte heraus), die grundsätzliche Überlegung mit einer variablen Lichtgeschwindigkeit zu arbeiten, haben jedoch verschiedene Physiker im Laufe der Zeit wieder aufgenommen, beziehungsweise wieder entdeckt. Schon bevor die endgültigen Feldgleichungen veröffentlicht wurden, entwickelte Max Abraham Einsteins Theorie weiter und publizierte sie 1912 in der Broschüre "Zur Theorie der Gravitation". Einstein war zuerst begeistert von Abrahams Ansatz, distanzierte sich aber nach einer genaueren Prüfung wieder davon. Weitere Zeitgenossen Einsteins, die sich mit der Gravitation beschäftigten, waren Gunnar Nordström und Gustav Mie.
Mit Schrödinger und Paul Dirac haben sich auch zwei Begründer der Quantenmechanik mit VSL-Theorien auseinandergesetzt.
In den Fünfzigerjahren entwickelte Robert Henry Dicke zuerst alleine, dann zusammen mit Carl H. Brans eine Theorie, die ebenfalls zu einer variablen Lichtgeschwindigkeit führt. Die frühen Arbeiten Einsteins zur Gravitation waren den Autoren aber nicht bekannt.
Das Thema nahm lange Zeit keinen Raum ein in der Diskussion um die Relativitätstheorie, bis João Magueijo in den späten 90er Jahren den Faden wieder aufnahm. Eine Zusammenfassung der Theorien mit variablen Lichtgeschwindigkeiten findet sich hier. Wer sich über den Stand der Theorien informieren will, findet darin einen guten Ausgangspunkt.
João Magueijo hat seine persönlichen Erfahrungen als Anhänger der vsl-Theorien in einem autobiografischen Buch mit dem Titel: "Schneller als die Lichtgeschwindigkeit: Hat Einstein sich geirrt?" beschrieben.
Um João Magueijo hat sich eine kleine, aber wachsende Gruppe von Forschern gebildet, die sich der VSL angenommen haben.

VSL-Theorien


Variable Lichtgeschwindigkeit


Die VSL-Theorie besagt, dass sich die Lichtgeschwindigkeit mit der Zeit oder auch im Raum ändert. Auch eine frequenzabhängige Lichtgeschwindigkeit ist vorgeschlagen worden. Mit der Lichtgeschwindigkeit würden sich auch andere Naturkonstanten ändern und man müsste sie dann als Naturparametern bezeichnen. Wenn man alle Naturkonstanten mit der Lichtgeschwindigkeit skaliert, so braucht man lokal und in einem kleinen Zeitraum nichts von der Variation zu bemerken. Daher sollte man sich auch nicht vom Namen "variable Lichtgeschwindigkeit" einengen lassen, sondern allgemein über "veränderbare Naturkonstanten" reden. Dazu gehört beispielsweise auch die Feinstrukturkonstante, die sich im Laufe der Entwicklung des Universums geändert haben könnte.

Anwendungen


Gravitationseffekte wie sie bei einem schwarzen Loch erwartet werden sind ein Einsatzgebiet der VSL. Dabei wird üblicherweise c im Gravitationspotential als vermindert angesehen.
Viele Arbeiten von João Magueijo handeln von einer Alternative zur Inflationstheorie. An Stelle einer rasanten Ausdehnung des Universums wird von einer viel höheren Lichtgeschwindigkeit im frühen Universum ausgegangen. Damit soll die Homogenität und die Flachheit des Universums ohne Inflation erklärt werden.
Im Zusammenhang mit der Quantisierung des Raumes wurde eine frequenzabhängige Lichtgeschwindigkeit diskutiert.

VSL im physikalischen Weltbild


Mathematische Theorien beruhen idealerweise auf Grundannahmen oder Axiomen. Ändert man das Axiomensystem, so ändert sich auch die Theorie, die darauf aufgebaut ist. Die ältere Theorie ist deswegen nicht falsch, sie kann beispielsweise als Spezialfall neben einer erweiterten Theorie fortbestehen. Als Beispiel sei das Parallelenaxiom der euklidischen Geometrie genannt. Als man diese einschränkende Annahme fallen liess, entdeckte man die Vielfalt der gekrümmten Geometrien. In der Physik ist die Situation etwas anders. Theorien, die auf verschiedenen Grundannahmen aufbauen, existieren nur so lange nebeneinander, bis Messungen zugunsten einer Theorie entscheiden. Was die Axiomatik anbelangt ist die ART eine vorbildliche Theorie. Wenige Grundannahmen führen zu den Feldgleichungen.
Bei den VSL Theorien herrscht hingegen noch kein Konsens. Es gibt zwar Lösungen für viele einzelne Probleme, bei einer einheitlichen und gut untermauerter Theorie ist man aber noch nicht. Es gibt auch oft geäusserte Bedenken, die ich kurz vorstellen möchte:
Viele, die zum ersten mal von variabler Lichtgeschwindigkeit hören, denken zunächst an eine Verletzung der speziellen Relativitätstheorie. Dies ist jedoch nicht oder nicht zwingend der Fall. Das Michelson-Morley-Experiment macht nur eine Aussage über die Isotropie der Lichtgeschwindigkeit. Die absolute Grösse der Lichtgeschwindigkeit ist jedoch tautologisch über Länge und Zeit definiert, welche wiederum von der Lichtgeschwindigkeit abhängig sind.
Die allgemeine Relativitätstheorie wird von den VSL Theorien abgeändert oder gänzlich ersetzt. Viel Reibungsfläche zur VSL bietet das kosmologische Standardmodell ($\Lambda CDM$-Modell bzw. Urknall Modell). Das Standardmodell setzt im Gegensatz zur VSL die Konstanz der Lichtgeschwindigkeit über die Zeit voraus, benötigt dafür aber zusätzlich die kosmologische Konstante, beziehungsweise dunkle Energie.
Die Erhaltungssätze sind Grundpfeiler der Physik. Auch diese kommen in der VSL nicht ungeschoren davon. Selbst im klassischen Vakuum führt die variable Lichtgeschwindigkeit zu einer Verletzung der Raum-Zeit Symmetrien. Dadurch müssten einige Erhaltungssätze entweder anders hergeleitet werden oder ganz aufgegeben werden. Dabei wird man darauf achten müssen, dass die zentralsten Prinzipien, wie die Energieerhaltung beibehalten werden.
Nach all diesen kritischen Anmerkungen möchte ich auch noch einen Grund nennen, wieso sich die Beschäftigung mit den VSL-Theorien lohnen könnte: Sie machen verschiedene messbare Voraussagen. In diesem Punkt heben sich die VSL wohltuend von manchen anderen physikalischen Theorien ab.

Andere Theorien, andere Beobachtungen


Bei all diesen Theorien stellt sich jetzt natürlich die Frage, was diese zu schwarzen Löchern zu sagen haben. Bei manchen Theorien sind die messbaren Effekte so gut versteckt, dass man noch keine Chance hat diese zu entdecken. Daher weise ich hier nur auf zwei Theorien hin, die völlig unterschiedliche, aber messbare Abweichungen vorhersagen.

Modified Gravity


Als erstes sei die Modified Gravity, kurz: MOG von John Moffat genannt.
Eine zentrale Absicht dieser Theorie ist es, an Stelle der dunklen Materie eine über weite Entfernungen stärker wirkende Gravitationskraft zu setzen. Das Gravitationsgesetz muss natürlich für die bisherigen Beobachtungen im Rahmen der Messgenauigkeit übereinstimmen. Bei schwachen Feldern sagt es hingegen eine stärkere Gravitationswirkung voraus. Diese Modifizierung wirkt sich auch bei extrem starken Feldern aus und diese Theorie sagt für SgrA* eine viel grössere Silhouette voraus.

Modifizierte Schwarzschildlösung


Ich habe mich vor einiger Zeit selbst dazu entschlossen einigen VSL Ideen nachzugehen. Ein Ergebnis dieser Bemühungen will ich nun unter der Bezeichnung: "Modifizierte Schwarzschildlösung" vorstellen. Sie ist aus einem skalaren Gravitationspotential abgeleitet und generiert eine statische Lösung, die asymptotisch mit der Schwarzschildlösung übereinstimmt (daher der Name). Aus der Schwarzschildlösung wird aber der innere Bereich "wegtransformiert". Das "sichtbare" Resultat wäre dadurch ein wesentlich kleinerer dunkler Fleck ohne Singularität (siehe Simulation unten). Es handelt sich um eine VSL-Theorie, da die Lichtgeschwindigkeit global gesehen vom Gravitationspotential abhängt (nicht aber von anderen Faktoren, wie der Zeit, sofern sich die Messung im Gravitationsfeld nicht verschiebt). Bei der lokalen Betrachtung bleibt die Lichtgeschwindigkeit immer auf dem gleichen Wert ($3\cdot 10^8 \frac{m}{s}$), da Raum und Zeit reziprok skalieren.

In diesem Artikel ist nicht der Platz für eine umfassende Darstellung einer Theorie. Auf der anderen Seite lässt die alleinige Darstellung eines Ergebnisses zu viele Fragen offen. Daher seien hier einige zentrale Aspekte kurz angesprochen.

In der ART wird die Energie mit einer mittleren Krümmung des riemannschen Raumes identifiziert. Dies wird formal durch die Lagrangedichte (Energiedichte) des Raumes beschrieben:
$$\mathfrak{L}=R\cdot \sqrt{\lvert g \rvert}$$
Dabei bezeichnet R den Krümmungsskalar. Die Wurzel aus der Determinante des metrischen Tensors skaliert das Volumenelement der Raumzeit. Der Raum enthält nur dann Energie, wenn sich die einzelnen Flächenkrümmungen nicht aufheben. (Die kosmologische Konstante sei hier nicht betrachtet). Eine ausführliche Darstellung findet sich hier.
Die Herleitung der Feldgleichungen ist zwingend. Man kann sie allenfalls noch auf die eine oder andere Art ergänzen. Nicht zwingend sind aber die Vorraussetzungen, wie das Äquivalenzprinzip als Primärprinzip und die Riemannsche Mannigfaltigkeit. Daher sei die Lagrangedichte ergebnisoffen mit einem Operator $D^2$ beschrieben, der wie der Krümmungsskalar Ableitungen zweiter Ordnung enthält:
$$\mathfrak{L}_{VSL}=D_{VSL}^2(g)\cdot \sqrt{\lvert g \rvert}$$
An Stelle der Riemannschen Mannigfaltigkeit soll die Integration der Feldgleichungen zu einer "isotropen" Geometrie führen. Dies weil die spezielle Relativitätstheorie eine isotrope, aber keine überall absolut gleiche Lichtgeschwindigkeit fordert. Man kann diese Geometrien vergleichen, indem man die äussere Schwarzschildlösung betrachtet. In kartesischen Koordinaten hat der metrische Tensor der Schwarzschildlösung die Form:
$$g_{u,v}=diag(\gamma^{-2},-\gamma^{2},-1,-1)$$
, in einer isotropen Geometrie wird hingegen gefordert:
$$g_{u,v}=diag(\gamma^{-2},-\gamma^{2},-\gamma^{2},-\gamma^{2})$$
Der Betrag der Determinante der Metrik ist jetzt nicht mehr Eins. (Eine Bemerkung dazu: Einstein gibt auf S.815 dieser Schrift an, solche Möglichkeiten geprüft und verworfen zu haben, da sie nichts neues brächten.)
Der Skalierungsfaktor $\gamma$ kann mit der Lichtgeschwindigkeit in direkte Beziehung gesetzt werden. Dies muss allerdings mit Vorsicht geschehen, da die Lichtgeschwindigkeit eine zusammengesetzte Grösse darstellt. An Stelle des Faktors $\gamma^{-1}$ kann jedoch auch das skalare Gravitationspotential $\Phi$ gesetzt werden:
$$\Phi:=\gamma^{-1}=\frac{d\tau}{dt}=\frac{r}{m+r}$$
,wobei $\frac{d\tau}{dt}$ die "Verlangsamung" der Ortszeit im Gravitationsfeld gegenüber einer einer durch Gravitation nicht beeinflussten Zeit beschreibt. Der Term $\frac{r}{m+r}$ gibt das Potential einer Punktmasse m in der Entfernung r an.
Obwohl die isotrope Geometrie keine riemannsche Mannigfaltigkeit mehr darstellt, kann ein Linienelement angegeben werden:
$$ds^2=\Phi^2\cdot dt^2-\Phi^{-2}\cdot(dr^2+r^2\cdot d\theta^2+r^2 sin^2(\theta)\cdot d\phi^2)$$
Mit dieser Metrik werden alle Längen isotrop skaliert und die Zeit so, dass die Lichtgeschwindigkeit an jedem Ort lokal betrachtet identisch ist.
Die Berechnung der Lichtablenkung ist mit diesem Linienelement relativ einfach und exakt durchführbar. Man hat die gleiche Situation wie bei einem durchsichtigen Körper mit variablem Brechungsindex. Der Ereignishorizont eines schwarzen Lochs wird bei dieser Variante einer VSL-Theorie auf den Ursprung abgebildet. Durch den Wegfall des inneren Bereichs erscheint dieses Objekt nur etwa halb so gross wie ein schwarzes Loch.



Bild: Ueli Hafner Diese Ray-tracing Simulation zeigt ein "schwarzes Loch" im Verständnis obiger VSL-Theorie. Der äußere Kreis markiert den klassischen Ereignishorizont. Im Gegensatz zur Schwarzschildlösung fallen die Lichtstrahlen erst hinein, wenn sie den klassischen Horizont deutlich unterschreiten. Damit erscheint dieses Objekt optisch kleiner. Radial ausgestrahlt kann Licht das Objekt verlassen. Es wäre allerdings stark rotverschoben.
Die Farbe der Lichtstrahlen zeigt wie im vorhergehenden Bild die Zeit an, die der Strahl unterwegs ist und nicht etwa die Rotverschiebung. In der Mitte hat es eine Nullstelle, bei der das Licht zum Stillstand kommt. Dieser Punkt ist das Pendant zum Ereignishorizont der ART.
In größerer Entfernung gleichen sich VSL und ART einander stark an.
Falls diese VSL Theorie stimmt, dann wird man keinen Ereignishorizont "sehen", aber ebenso wie bei der Schwarzschildlösung einen innersten stabilen Orbit für Licht und einen für Materie. Die erwarteten Bilder sind ähnlich, aber bei der VSL-Theorie deutlich kleiner.

Anhang


Literatur und Links


Zu den Projekten gelangt man über folgende Webseiten:
eventhorizontelescope und blackholecam.

Blogs zum behandelten Thema gibt es viele. Kurz und mit einer schönen Animation versehen ist dieser hier.

Bücher über schwarze Löcher gibt es wie schwarze Löcher im Universum. Wer sich speziell für Weisse Zwerge, Neutronensterne und Schwarze Löcher interessiert, dem empfehle ich von
Max Camenzind
Gravitation und Physik kompakter Objekte
aus dem Springer-Spektrum-Verlag (29.01.2016)

Bei schwarzen Löchern darf der Name Hawking natürlich nicht fehlen. Im folgenden Buch werden theoretisch anspruchsvolle Fragen um schwarze Löcher diskutiert:
Raum und Zeit
über die wissenschaftliche Debatte zwischen Stephen Hawking und Roger Penrose
Rowohlt 1998
Anmerkung: Das Buch gelangte nach dem Bestseller "Eine kurze Geschichte der Zeit" oft in die Regale der Populärwissenschaft, wo es aber nicht hingehört.

Wer sich über Theorien mit variabler Lichtgeschwindigkeit informieren will, hat es schon schwerer. Eine umfangreiche Zusammenstellung gibt João Magueijo in folgendem Dokument:
New varying speed of light theories

Seine persönlichen Erfahrungen als Anhänger einer Aussenseitertheorie beschreibt
João Magueijo in
Schneller als die Lichtgeschwindigkeit: Hat Einstein sich geirrt?
Verlag Bertelsmann, München (Februar 2003)

Zum Thema gibt es auch Bücher und Videos auf youtube von Alexander Unzicker. Das bekannte Buch
Vom Urknall zum Durchknall. Die absurde Jagd nach der Weltformel
Springer, Berlin/Heidelberg 2010
besteht aber vor allem aus Polemik gegen die moderne Kosmologie und Teilchenforschung. In späteren Büchern (die ich nicht kenne) scheinen die VSL-Theorien aber ihren Platz zu haben.

Bildnachweis


Die Bilder stammen entweder von mir oder von der ESO. Es gilt folgendes Copyright für die beschrifteten Bilder:
Solange nicht anderweitig vermerkt, werden ESO-Bilder und Videos ebenso wie die Texte von Pressemitteilungen, Kurzmitteilungen, Bildern der Woche und Bildunterschriften unter der  Creative-Commons-Namensnennung-4.0-International-Lizenz freigegeben und können auf nicht-exklusiver Basis ohne Gebühr reproduziert werden, sofern ein entsprechender Herkunftsnachweis ordnungsgemäß und deutlich sichtbar beigefügt wird.
\(\endgroup\)

Link auf diesen Artikel Link auf diesen Artikel  Druckbare Version Druckerfreundliche Version  Einen Freund auf diesen Artikel aufmerksam machen Weitersagen Kommentare zeigen Kommentare  
pdfFür diesen Artikel gibt es keine pdf-Datei


Arbeitsgruppe Alexandria Dieser Artikel ist nicht im Verzeichnis der Arbeitsgruppe Alexandria eingetragen.
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
Verwandte Links
 
Besucherzähler 381
 
Aufrufstatistik des Artikels
Insgesamt 1 externer Besuch in 2018.04 [Anzeigen]
DomainAnzahlProz
http://matheplanet.com1100%100 %

[Seitenanfang]

" Physik: Im Zentrum der Milchstraße" | 5 Kommentare
 
Für den Inhalt der Kommentare sind die Verfasser verantwortlich.

Re: Im Zentrum der Milchstraße
von digerdiga am Mi. 07. März 2018 22:15:49

\(\begingroup\)
Hab noch nicht zu ende gelesen, allerdings ist mir bisher aufgefallen, dass du einerseits vom Innermost stable circular orbit $=3r_s$ redest, welcher für ein nicht rotierendes SL gilt, und dann redest du unmittelbar danach von einem rotierenden SL. Wie groß ist denn so der Parameter a für Sagittarius A* ?\(\endgroup\)

 [Bearbeiten]

Re: Im Zentrum der Milchstraße
von gonz am Fr. 09. März 2018 10:57:38

\(\begingroup\)
Danke für den Artikel. Es ist faszinierend, was sich da an Objekten im Zentrum unserer Galaxie befindet smile

\(\endgroup\)

 [Bearbeiten]

Re: Im Zentrum der Milchstraße
von Ueli am Fr. 09. März 2018 12:40:18

\(\begingroup\)
@digerdiga
danke für den Hinweis: diese Sache habe ich nicht angesprochen und ich glaube auch nicht, dass man den Drehimpuls und die Drehachse kennt. Einige Ergänzungen dazu könnte ich noch in den Artikel einbauen. Da der Innermost stable circular orbit kleiner wird, wird auch die Messung nochmals schwieriger. Ich habe mich immer wieder gefragt, ob das ganze Unterfangen nicht zu optimistisch angegangen wird. Ausserdem habe ich kaum konkrete Rechnungen gefunden, sondern nur einige Zahlen zur nötigen Auflösung. Aber falls ich etwas finde werde ich es natürlich noch ergänzen.
Gruss Ueli\(\endgroup\)

 [Bearbeiten]

Re: Im Zentrum der Milchstraße
von holsteiner am Fr. 09. März 2018 13:27:34

\(\begingroup\)
Ein wirklich sehr schöner Artikel.

Nun, irgendwann wird es sicher ein Space-Teleskop mit der passenden Auflösung geben. Die Aussicht, dann schwarze Löcher beobachten zu können und die Resultate mit der Theorie zu vergleichen zu können, ist faszinierend.

holsteiner\(\endgroup\)

 [Bearbeiten]

Re: Im Zentrum der Milchstraße
von digerdiga am Fr. 09. März 2018 14:01:05

\(\begingroup\)
"An Weihnachten 1916 erhielt Einstein einen Brief von Karl Schwarzschild."

Hat Einstein den Brief erst nach dem Tod Schwarzschilds bekommen oder meinst du 1915?
\(\endgroup\)

 [Bearbeiten]

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2018 by Matroids Matheplanet
This web site was made with PHP-Nuke, a web portal system written in PHP. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]