-ynopsi- Geschrieben 5. März 2002 Geschrieben 5. März 2002 Welche Bandbreite in MBit/s benötigt man, wenn 450 MByte in 2 Minuten übertragen werden sollen?! :confused: Systeminterne Gegebenheiten oder eine mögliche Netzwerkauslastung dürfen ausser acht gelassen werden!! Die Lösung hierfür ist: 30 MBit/s ! Gerechnet wei folgt: (450 MByte * 8) / 120 s Jetzt brauch ich nur noch ne Erklärung von Euch, warum man das so rechnen kann/darf/muss/soll !? Zitieren
dubidu2 Geschrieben 5. März 2002 Geschrieben 5. März 2002 Hallo, 1 Byte = 8 Bit deswegen: 450 MB * 8 = 3600 MBit die sollen in 2 Minuten übertragen werden -> Durchsatz pro Sekunde muss 3600 MBit/ 120 Sekunden sein ->30 MBit/s Ich hoffe, dass es jetzt klar ist. Gruß dubidu2 Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.