Hallo,
wir haben in der Schule eine "Knobelaufgabe bekommen, und wollte mal fragen ob meine Berechnung soweit richtig ist:
Aufgabe:
Zwischen Erde und einer Mondsonde ist eine Leitung mit 100Mb/s eingerichtet.Die Entfernung zwischen Erde und Mond beträgt ungefähr 385000km, die Ausbreitungsgeschwindigkeit entspricht der Lichtgeschwindigkeit (300000KM/s). Bitte beachten sie:
1Mbit/s = 1000Kbit/s aber 1 MByte= 1024 KByte bzw.
1Kbit/s = 1000 bit/s aber 1 Kbyte = 1024 Byte.
a) Berechnen sie die minimale Zeit die eine Nachricht vom Mond zur Erde und zurück benötigt.
Meine Lösung:
385000 / 300000 = 1,28 Sekunden
1,28 Sekunden * 2 (Rückweg) = 2,56 Sekunden
b) Berechnen sie die Anzahl der Bytes, die sich auf der Leitung befinden, wenn Daten vom Mond zur Erde übertragen werden.
Meine Lösung:
100 Mb = 100000000 bit /8 = 12.500.000 Byte
12.500.000 Byte = 12,5 Mb
12,5 Mb * 1,28 Sekunden = 16Mb/s
Somit befinden sich 16Mb/s in der Leitung
c) Eine auf dem Mond installierte Kamera nimmt Bilder auf und speichert sie als 16MB große datei ab.Wie lange dauert es mindstens von der Anforderung des Bildes(auf der Erde) bis zum Ende der Übertragung? Wie hoch ist der tatsächlich erreichte DurchsatzGeschwindigkeit in Mbyte/s) ?
Meine Lösung:
Auf dem Mond befindet sich das 16MB File. Es wird eine leere Nachricht von der Erde zur Sonde geschickt die Dauer beträgt 1,28 s. Dann wir das File an die Erde geschickt. Der erste Byte kommt nach 1,28 s, das letzte Byte nach weiteren 1,28 s.
3 * 1,28 Sekunden = 3,84 Sekunden
Es wird eine Geschwindigkeit von 100 MB/s erreicht.
Ist meine Berechnung soweit richtig ? Normalerweise müsste man ja Overhead usw. berücksichtigen usw richtig ? Was noch ?