arargon_316 Geschrieben 4. November 2011 Geschrieben 4. November 2011 Hallo an Alle, ich hoffe Ihr könnt mir dabei helfen diese Aufgabe zu lösen habe keine Ahnung wie man an sowas herangeht! Nun zur Aufgabe: Zwischen der Erde und dem Mond ist eine Leitung mit 100Mbit/s eingerichtet. Die entfernung zw. Erde und Mond beträgt ungefähr 385000Km, die Ausbreitungsgeschwindigkeitentspricht der Lichtgeschwindigkeit (300000Km/s) a) Berechnedie minimale Zeit die eine leere Nachrichtvon der Erde zum Mond und zurück braucht! b)berechne die Anzahl der Bytes, die sich auf der Leitung befinden, wenn Daten vom Mond zur Erde übertragen werden. c)Eine auf der Mondsonde installierte Kameranimmt Bilder auf und speichert sie als 16MB große Datei ab. Wie langedauert es mindestens von der Anforderung eines Bildes (auf der Erde) bis zum Ende der Übertragung? Wie hoch ist der tatsächlich erreichte Durchsatz (Geschwindigkeit in Mbit/s)? Wäre euch echt dankbar für eine Hilfestellung zum Lösungsansatz. mich irritiert besonders die Entfernung und ich weiß nicht mit welcher geschwindigkeit ich rechnen soll. Vielen Dank im vorraus. gruß Zitieren
flashpixx Geschrieben 4. November 2011 Geschrieben 4. November 2011 Wie man Fragen richtig stellt: eine Anleitung wie man Fragen erfolgreich in Usenet, Mailing Listen und Webforen stellt. Zitieren
arargon_316 Geschrieben 5. November 2011 Autor Geschrieben 5. November 2011 hab dir Schlaumeier mal die Definition besorgt : Lösungsansatz (der Beginn einer Kette von Gedanken, Analysen oder Handlungen, die zur Lösung2 eines Problems oder einer Aufgabe führen soll ) !! Aber da du ja davon keine Ahnung haben wirst, hier ne leichtere Frage : Wie lösche ich meinen Account auf dieser "überaus nützlichen" Seite? Zitieren
Klotzkopp Geschrieben 5. November 2011 Geschrieben 5. November 2011 Das ist eine ganz normale Berechnung der Übertragungsgeschwindigkeit, mit der Ausnahme, dass du wegen der großen Entfernung zusätzlich Zeit für die reine Ausbreitung benötigst. Die Zeit, die das Licht für die Strecke braucht, musst du also immer mit berücksichtigen. Zitieren
arargon_316 Geschrieben 5. November 2011 Autor Geschrieben 5. November 2011 Also hab mal nen bißchen rumgerechnet, würde dazu mal gern eure Meinung hören, ob das Sinn ergibt. a) 38500/300000 = 1,283s * 2 = 2,56 s 100 MBit/s = 100.000.000 bit : 8 = 12.500.000 Byte : 1024 = 12.207,031 KByte = 11.92093 MB = ca. 12MB 12MB/s * 1,28s = 15,36MB die sich auf der leitung befinden! c ) Anforderung von der (1,28 s) + senden des File's (2*1,28s) = 3,84s Der tatsächlich erreichte Durchsatz beträgt 100Mbit/s Zitieren
Klotzkopp Geschrieben 5. November 2011 Geschrieben 5. November 2011 c ) Anforderung von der (1,28 s) + senden des File's (2*1,28s) = 3,84sEs sollte dir auffallen, dass hier nirgendwo die Dateigröße auftaucht. Heißt das, es dauert immer gleich lange, egal wie groß die Datei ist? Der tatsächlich erreichte Durchsatz beträgt 100Mbit/sUnd das hast du wie ausgerechnet? Zitieren
arargon_316 Geschrieben 5. November 2011 Autor Geschrieben 5. November 2011 na wenn ich davon ausgehe, dass in 1,28 sec maximal 15,36MB übertragen werden bleibt ja noch ein rest an datenmenge, also brauche ich eine weitere übertragung von 1,28 sec um die restmenge noch zu übertragen! und eine übertragung habe ich mit 1,28 sec deklariert, da ich 3 habe macht das 3,84 sec (Anforderung->senden->senden->fertig) und die 100mbit entnehme ich der aufgabe davor, da ich ja dieses File in bezug auf 100mbit übertrage! Zitieren
Klotzkopp Geschrieben 5. November 2011 Geschrieben 5. November 2011 (bearbeitet) na wenn ich davon ausgehe, dass in 1,28 sec maximal 15,36MB übertragen werdenIn den ersten 1,28 Sekunden wird gar nichts übertragen, denn so lange dauert es ja, bis das erste Bit überhaupt ankommt. Wie lange dauert es vom Senden des ersten bis zum Senden des letzten Bits? Wie lange dauert es vom Senden des letzten bis zum Empfangen des letzten Bits? Diese beiden Zeiten musst du einfach nur addieren. Bearbeitet 5. November 2011 von Klotzkopp Zitieren
arargon_316 Geschrieben 5. November 2011 Autor Geschrieben 5. November 2011 verstehe ich nicht, ich brauche doch nicht 1,28 sec für 1 bit!? tut mir leid,aber ich verstehe nicht wie ich das in zeit ausdrücken soll? Zitieren
Servior Geschrieben 5. November 2011 Geschrieben 5. November 2011 Du hast zum einen die reine Übertragungszeit für eine Strecke: 1,28 Sekunden. Dies ist die Zeit du du benötigst bis das erste Signal von der Erde (Start) am Mond (Ziel) ankommt. Bei einer Leeren Nachricht beträgt die Zeit somit 2,56 Sekunden + 2x Übertragungszeit für den TCP Header. Die Daten die du benötigst findest du hier: Transmission Control Protocol Zitieren
arargon_316 Geschrieben 6. November 2011 Autor Geschrieben 6. November 2011 Bei einer Übersee- oder Satellitenverbindung dauert das Eintreffen des ersten ACK-Signals aus technischen Gründen bisweilen mehrere 100 Millisekunden, in dieser Zeit können unter Umständen mehrere hundert Pakete gesendet werden. Der Sender kann den Empfängerpuffer füllen, bevor die erste Bestätigung eintrifft. Alle Pakete im Puffer können gemeinsam bestätigt werden. Was für mich bedeutet, zu c) dass ich eine Anforderung zum Mond schicke (1,28 sec), dann beginnt der Sender auf dem Mond zu senden, da das Datenvolumen größer ist, als die die Daten, die in maximal 1,28 sec übertragen werden können muss der Sender also zweimal senden (also 2*1,28 sec) und zum schluss quittiert der Empfänger der Erde, dass alle Pakete angekommen sind also nochmal 1,28 sec! macht nach adam riese 4*1,28 sec = 5,12sec von der Anforderung bis bis zum Ende der Übertragung! zu a) Bestätigungen können zusätzlich zu den Daten in den TCP-Header des entgegengesetzten Datenstroms eingefügt werden (Piggybacking), falls der Empfänger ebenfalls Daten für den Sender bereithält Anforderung (1,28sec) + senden von leerer Nachricht (1,28 sec) + quitieren und zurück senden der Nachricht (1,28 sec) + quitieren des Empfangs (1,28 sec) = 4*1,28 sec = 5,12 sec ! Wäre das so richtig? Zitieren
Klotzkopp Geschrieben 6. November 2011 Geschrieben 6. November 2011 da das Datenvolumen größer ist, als die die Daten, die in maximal 1,28 sec übertragen werden können muss der Sender also zweimal senden (also 2*1,28 sec)Das ist völliger Unsinn. Deine 15,36MB pro 1,28 Sekunden sind doch nichts weiter als auf andere Einheiten umgerechnete 100 MBit/s. So viele Daten sind wegen der großen Entfernung immer gerade unterwegs. Nirgendwo in der Aufgabe steht, dass nicht mehr auf einmal gesendet werden kann. Woher nimmst du das? Zitieren
Servior Geschrieben 6. November 2011 Geschrieben 6. November 2011 (bearbeitet) Lassen wir den Header mal beiseite und gehen nur von der Datenmenge aus: 100Mbit/s = 12,5MB/s. Um deine 16MB zu übertragen brauchst du 1,28 Sekunden. Du sendest von der Erde eine Anfrage (1,28 Sekunden), diese wird vom Mond beantwortet (1,28 Sekunden). Die Übertragung des Bildes benötigt nochmals 1,28 Sekunden. Somit müsste die Zeit meiner Meinung nach 3,84 Sekunden betragen bis die Daten vollständig auf der Erde sind. Die tatsächlich erreichte Geschwindigkeit dürfte dann 33,333Mbit/sec sein. (128Mbit oder 16MB in 3,84 Sekunden) Edit: Natürlich unter der Vorraussetzung, dass keine Synchronisation erfolgen muss. Bearbeitet 6. November 2011 von Servior Zitieren
Klotzkopp Geschrieben 6. November 2011 Geschrieben 6. November 2011 Die Übertragung des Bildes benötigt nochmals 1,28 Sekunden.Die vergleichsweise winzige Anfrage brauchte 1,28 Sekunden, das viel größere Bild braucht genauso lange? Da stimmt doch was nicht. Zitieren
Servior Geschrieben 6. November 2011 Geschrieben 6. November 2011 Was soll daran nicht stimmen? Erde stellt Anfrage an Mond, dies sind 1,28 Sekunden. Mond Beantwortet die Anfrage, dies sind 1,28 Sekunden. Bis dahin sind wieviel Daten auf der Erde angekommen? Das erste Bit! Somit fehlen trotzdem noch die 16MB auf der Erde, welche aufgrund der Geschwindigkeit erst 1,28 Sekunden nach dem Beginn des Transfers auf der Erde sind. Sag mir doch was daran falsch sein soll und stell das ganze hier richtig. Zitieren
Klotzkopp Geschrieben 6. November 2011 Geschrieben 6. November 2011 Ich hatte dich falsch verstanden. Ich dachte, du hättest für die Dateiübertragung einfach nochmal die Zeit genommen, die das Licht für die Strecke braucht. Es ist bei dieser Aufgabe nicht gerade hilfreich fürs Verständnis, dass der Wert 1,28 Sekunden zweimal aus komplett unterschiedlichen Rechnungen auftaucht (385000 km/300000 km/s und 16 MB/100 MBit/s). Zitieren
arargon_316 Geschrieben 6. November 2011 Autor Geschrieben 6. November 2011 @Servior 100Mbit/s = 12,5MB/s 100 Mbit -> 100000000 bit -> 12500000 Byte -> 12207.03125 KByte -> 11.92093MByte -> ~12MByte , wie kommst du auf 12,5MB ? Um deine 16MB zu übertragen brauchst du 1,28 Sekunden. Wenn ich 16MByte mit 100MBit/s übertrage brauche ich 1,34217728 s , wie kommt ihr auf 1,28s? und wenn ich das ganze jetzt zusammenfasse : Lösung aufgabe c) Erde stellt Anfrage (1,28s) + Mond Beantwortet die Anfrage (1,28s) + Übertragungzeit von 16mb (1,34s) = 3,9 s !!! der tatsächlich erreichte Durchsatz beträgt somit (100Mbit/s) / (3,9s) = 25,6Mbit/s !!! Zitieren
arargon_316 Geschrieben 6. November 2011 Autor Geschrieben 6. November 2011 zu klären bleibt, ob die Erde nach erhalt der gesamten 16MB, nochmals das quitieren bestätigt so wie es im TCP gerfordert ist, dann würden pben drauf nochmals 1,28 sec kommen für die Bestätigung, sonst würde der Sender auf dem Mond ja nicht wissen, ob alles glatt ging und würde es nochmals senden!richtig? Zitieren
Servior Geschrieben 6. November 2011 Geschrieben 6. November 2011 (bearbeitet) Du musst dich schon entscheiden ob du mit dem Faktor 1000 oder 1024 rechnest, du kannst nicht beides mischen. (Egal womit du rechnest, bei beiden kommt am ende das gleiche Ergebnis raus) 100Mbit = 102400Kbit = 104857600bit = 13107200byte = 12800Kbyte = 12,5Mbyte. Oder ums kurz zu machen 100Mbit/8 = 12,5Mbyte. Wenn du Bit in Byte haben willst teilst du durch den Faktor 8, da 1 Byte = 8 Bit. Die Bestätigung würde ich weglassen, denn ansonsten müsste noch die Synchronisation mit in die Rechnung (SYN/ACK/SYN_ACK). Bearbeitet 6. November 2011 von Servior Zitieren
arargon_316 Geschrieben 7. November 2011 Autor Geschrieben 7. November 2011 Alles klar, danke für den Shortcut! dachte das im gesamten bit bereich mit dem faktor 1000 gerechnet wird und im byte bereich mit dem faktor 1024! Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.