DieFriedhilde Geschrieben 20. November 2022 Geschrieben 20. November 2022 (bearbeitet) Hallo zusammen, ich habe ein Lehrbuch zur Prüfungsvorbereitung und dort wurde mir diese Aufgabe gestellt: Wie ist die minimale Übertragungsdauer für 300 MiB Daten bei 10 Mbit/s, bei der oben genannten Verbindung? Runden Sie auf volle Sekunden. Mein Weg: 300MiB*1024^2 = 314.572.800 Byte (MiB zu Byte) 314.572.800/1400*1500 = 337.042.285,7 (Damit sollte der Overhead nun aufgerechnet sein. 1500 Byte MTU - 100 Byte IPsec) (337.042.285,7 / 1000^2)*8 = 2696,338286 Mbit (Byte zu Mbit) 2696,338286 / 10 = 269,6338286 = 270 Sekunden (Mbit durch Datentransferrate) Die offizielle Lösung lautet allerdings 273 Sekunden, leider ist kein Rechenweg angegeben und ich frage mich nun wo mein Fehler liegt. Könnte mich jemand aufklären? Bearbeitet 20. November 2022 von DieFriedhilde e_99 reagierte darauf 1 Zitieren
DieFriedhilde Geschrieben 20. November 2022 Autor Geschrieben 20. November 2022 Ach, ich bin doof, das dürfte die Lösung sein: Anstatt "314.572.800/1400*1500" muss doch "314.572.800/1400*1518" gerechnet werden. Header u. FCS muss ich zwar bei der MTU nicht beachten, aber natürlich bei der Übertragung. Es sind ja 1400 Byte Daten + 100 Byte IPsec + 18 Byte Header u. FCS = 1518 Byte 😄 e_99 reagierte darauf 1 Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.