DieFriedhilde Geschrieben 20. November 2022 Geschrieben 20. November 2022 (bearbeitet) Hallo zusammen, ich habe ein Lehrbuch zur Prüfungsvorbereitung und dort wurde mir diese Aufgabe gestellt: Wie ist die minimale Übertragungsdauer für 300 MiB Daten bei 10 Mbit/s, bei der oben genannten Verbindung? Runden Sie auf volle Sekunden. Mein Weg: 300MiB*1024^2 = 314.572.800 Byte (MiB zu Byte) 314.572.800/1400*1500 = 337.042.285,7 (Damit sollte der Overhead nun aufgerechnet sein. 1500 Byte MTU - 100 Byte IPsec) (337.042.285,7 / 1000^2)*8 = 2696,338286 Mbit (Byte zu Mbit) 2696,338286 / 10 = 269,6338286 = 270 Sekunden (Mbit durch Datentransferrate) Die offizielle Lösung lautet allerdings 273 Sekunden, leider ist kein Rechenweg angegeben und ich frage mich nun wo mein Fehler liegt. Könnte mich jemand aufklären? Bearbeitet 20. November 2022 von DieFriedhilde e_99 reagierte darauf 1
DieFriedhilde Geschrieben 20. November 2022 Autor Geschrieben 20. November 2022 Ach, ich bin doof, das dürfte die Lösung sein: Anstatt "314.572.800/1400*1500" muss doch "314.572.800/1400*1518" gerechnet werden. Header u. FCS muss ich zwar bei der MTU nicht beachten, aber natürlich bei der Übertragung. Es sind ja 1400 Byte Daten + 100 Byte IPsec + 18 Byte Header u. FCS = 1518 Byte 😄 e_99 reagierte darauf 1
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde Dich hier an.
Jetzt anmelden