Hallo, wir haben eine kleine Aufgabe bekommen.
Zwischen der Erde und einer Mondsonde ist eine Leitung mit mit 100 Mb/s eingerichtet.
Die Entfernung zwischen Erde undMond beträgt ungefähr 385000 km, die Ausbreitungsgeschwindigkeit
entspricht der Lichtgeschwindigkeit (300000 km/s).
a) Berechnen Sie die minimale Zeit, die eine leere Nachricht von der Erde zum Mond und zurück braucht.
Berechnen Sie die Anzahl der Bytes, die sich auf der Leitung befinden, wenn Daten vom Mond zur Erde übertragen
werden.
c) Eine auf der Mondsonde installierte Kamera nimmt Bilder auf und speichert Sie als 16 MB große Datei ab.
Wie lange dauert es mindestens von der Anforderung eines Bildes (auf der Erde)
Habe das schon gerechnet, bzw versucht.
Bei a) t = d/v=385000/300000 = 1,283 s * 2 = 2,56 s
Denke, das müsste soweit stimmen oder?
nun zu 100 Mbit/s sind 12,5 MB/s das habe ich einfach mal der Zeit genommen also * 1,28 s müssten dann 16 MB sein? Kann man das so machen?
Und bei C) habe ich dann einfach die Anfrage die 1,28 s dauert und die 16 MB auch, also insgesamt 2,56 s und der Durchsatz müsste doch sowieso bei 100 Mbit/s sein oder? Ach ich verstehe das nicht so richtig.