Muss man relativistisch rechnen?
"Satelliten eines GPS bewegen sich in 20200km Höhe über der Erde. Wie groß ist die Mindestlaufzeit eines Signals zwischen Satellit und GPS-Empfänger?" -> Ich hätte gedacht, dass man sich hier in der Perspektive des unbewegten Systems befindet und die Aufgabe deshalb mit v=s/t lösen kann. Man betrachtet es ja nicht aus der Perspektive der Signale.
3 Antworten
Für diese Frage braucht man ganz bestimmt keine relativistischen Berechnungen.
Eine simple Rechnung mit v=s/t genügt vollkommen. Die kürzeste Laufzeit resultiert auch gerade dann, wenn der Satellit möglichst exakt über dem Empfänger am Boden steht. Für die Distanz s kann man dann auch gerade die angegebene "Flughöhe" nehmen und für die Signalgeschwindigkeit v die Lichtgeschwindigkeit c.
Dass für die eigentlichen GPS-Berechnungen auch relativistische Effekte (sogar nach Allgemeiner Relativitätstheorie) eine Rolle spielen, hat mit dieser simplen Fragestellung hier null und nix zu tun.
Die Signallaufzeiten sind nicht von relativistischen Effekten betroffen, die Uhren an Bord der Satelliten schon (das Signal enthält auch immer eine Uhrzeit, zu der es losgelaufen ist). Darum kommen relativistische Korrekturterme in der wirklichen Positionsbestimmung vor.
Genau. GPS-Satelliten sind geostationär, daher musst Du nur die Laufzeit über die Entfernung berechnen.
Stimmt. Aber trotzdem sind die relativistischen Effekte unerheblich für die Berechnung der Signallaufzeit.
GPS Satelliten sind nicht geostationär.
Sonst wäre in Tälern sense. Es ist so, das man immer mind. 4 sichtbar sein müssen und zwar so, dass diese so weit wie möglich von einander entfernt sind (damit man die beste Geometrie hat sagt hat).
Die Berechnung der Laufzeit über die Entfernung klappt auch nicht so einfach, weil sich die Laufzeit in der Atmosphäre verzögert.