Zum Inhalt springen

Empfohlene Beiträge

Geschrieben

Hallo zusammen,

ich hätte hier eine Frage bezüglich Berechnung der Datenübertragungsrate.

Folgende Konstellation:

Ich würde gerne 500GB von einer externen Festplatte auf die andere kopieren.

Beide haben eine USB-2.0 Schnittstelle. Die Festplatten haben eine Umdrehung von 5400/min.

Wie lange brauche ich jetzt um die Daten zu kopieren? Spielt hier auch die Leistung des Rechners eine Rolle, oder werden nur die beiden USB-Schnittstellen "belastet"?

Ich steh hier gerade echt auf dem Schlauch.

Im Voraus vielen Dank für eure Hilfe!

Geschrieben (bearbeitet)

Das kommt ganz drauf an, was du

1. unter "schnitttstelle" und

2. unter "leistung des rechners" verstehst

ich gehe mal davon aus, dass du bei deinen überlegungen einen halbwegs aktuellen, ganz "normalen" PC meinst, so, wie wir alle einen zuhause rumstehen haben, oder?

dieser rechner hat wahrscheinlich eine sata-festplatte und eine usb 2.0 schnittstelle? hausaufgabe: schau dir die übertragungsrate von sata an und beantworte dann die frage, ob die übertragungsrate für usb 2.0 z.b. von der cpu abhängt.

zu 1. was gehört zur schnittstelle? ums kurz zu machen: schau dir an, was die aufgabe eines controllers ist ;-)

wenn natürlich eine seite einen flaschenhals hat, dann läuft das ganze system nur so schnell, wie das langsamere es vorgibt...

Bearbeitet von 127.0.0.1
ergänzung
Geschrieben (bearbeitet)

Falls ich mich ein wenig missverständlich ausgedrückt habe noch einmal:

Es hängen zwei externe Festplatten ( A + B ) via USB an einem Rechner. Es sollen die 500GB von FestplatteA auf FestplatteB kopiert werden.

Wäre dann folgende Rechnung ( theoretisch ) korrekt?

USB 2.0 Übertragungsgeschwindigkeit von 480Mbit/s ( 60Mbyte = 0,06 GByte)

500 GB / 0,06 = 8333sec = 138min = 2,31h

btw. Und ja es ist ein ganz "normaler" Rechner. interne Festplatten sind per SATAII angebunden. ( Nur rein zur Vervollständigung )

Bearbeitet von Andey
Geschrieben

deine überlegungen sind, soweit ich das aus den gerundeten werten mir herleiten kann, korrekt. (du musst aufpassen, wenn du von Mega auf Giga rechnest, ob du mit 1000 oder 1024 rechnest - anderes Thema)

Es macht dann aber in der praxis noch einen unterschied, ob es eher wenige große Dateien sind oder viele kleine und wie stark fragmentiert die daten vorliegen.

evtl macht es sinn, die HDD vor dem kopieren zu defragmentieren.

Geschrieben
Wäre dann folgende Rechnung ( theoretisch ) korrekt?
Sie wäre unvollständig. Die USB-Übertragungsgeschwindigkeit stellt eine obere Grenze dar. Die Lesegeschwindigkeit von Platte A und die Schreibgeschwindigkeit von Platte B allerdings auch. Die niedrigste dieser drei bestimmt die Dauer.
Geschrieben

Ok schonmal gut soweit.

Wie würde ich es ausrechnen wenn ich die Lese- und Schreibgeschwindigkeit der Platten berücksichtige? ( Theoretischer Rechenweg würde reichen )

Geschrieben
Wie würde ich es ausrechnen wenn ich die Lese- und Schreibgeschwindigkeit der Platten berücksichtige? ( Theoretischer Rechenweg würde reichen )
Du musst die kleinste der drei Geschwindigkeiten zum Ausrechnen der Dauer benutzen. Da ändert sich an der Rechnung gar nichts.
Geschrieben
Du musst die kleinste der drei Geschwindigkeiten zum Ausrechnen der Dauer benutzen. Da ändert sich an der Rechnung gar nichts.

...und die wiederum wirst du messen müssen. mir ist kein weg bekannt, wie man das zuverlässig ausrechnen kann.

Geschrieben

Hallo!

Ist diese Aufgabe denn real oder ist es eine Prüfungsaufgabe von der IHK?

Wenn es eine Prüfungsaufgabe ist, steht ja meistens dabei, dass z.B. der Overhead und sämtliche anderen Faktoren zu vernachlässigen sind.

Von daher könnte man dann schon mit der theoretischen Maximalrate von USB 2.0 rechnen.

  • 2 Monate später...
Geschrieben
...und die wiederum wirst du messen müssen. mir ist kein weg bekannt, wie man das zuverlässig ausrechnen kann.

Richtig. Es gibt eine Menge Faktoren, die hier noch garnicht bekannt sind.

Wichtigste Frage: kopierst Du filesystem-basiert oder direkt blockorientiert ? Das entscheided schonmal über zusätzliche seek-times (die man aber ohne vorherige Analyse des Filesystems nichtmal erahnen kann). Zudem ist noch wichtig, ob der Host zu dem Zeitpunkt ansonsten im Leerlauf oder noch mit anderen Dingen beschäftigt ist, usw, usw.

De facto kann man nur innerhalb eines vergleichbaren Lastszenarios messen (blocktrace/blockreplay können da helfen).

Wenn das eine Schul-/Prüfungsaufgabe ist, würde ich die theoretische Bandbreite ausrechnen, und dann aber klar darstellen, daß diese rein theoretisch ist, und anschließend einige wichtige Performance-bremsende Faktore nennen, mit der Schlußfolgerung, daß man - ohne Messung im konkreten System - keine belastbare Aussage treffen kann.

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...