Titan2345 Geschrieben 22. Mai 2010 Geschrieben 22. Mai 2010 Hallo zusammen, ich hab von meinem Lehre eine Aufgabe bekommen, bei der ich "etwas" überfordert bin...ich hoffe, mir kann hier einer helfen oder paar tipps geben. zur Info: Übertraggunsstrecke s=150km Bitrate v=2048kbit/s Signalausbreitungsgeschwindigkeit c=0.8 Bitfehlerwarscheinlichkeit p=10^(-7) maximale länge eines datenblocks l=1280 Oktett a) es soll die signallaufzeit der übertragungsstrecke berechnet werden und wie lang die übertragung eines datenblocks maximaler länge ist. mit welcher warscheinlichkeit ist ein datenblock maximaler länge gestört? wie oft muss solch ein datenblock im mittel übertragen werden? c) kanalausnutzung berechnen d) welcher wert ist für die timeout-Zeit des timers t1 mindestens einzustellen,wenn für die vernachlässigten zeiten insgesamt einer reserve von 10% vorgesehen wird? also irgendwie raff ich nix bei der aufgabe. kann mir dabei irgendeiner helfen?
flashpixx Geschrieben 23. Mai 2010 Geschrieben 23. Mai 2010 Und was hast Du bis jetzt selbstständig erarbeitet? Das Forum ist nicht dafür gedacht, dass andere Deine Hausaufgaben machen. Du solltest zeigen, dass Du Ansätze bei den Aufgabenteilen hin bekommst.
netzwerker Geschrieben 26. Mai 2010 Geschrieben 26. Mai 2010 a) es soll die signallaufzeit der übertragungsstrecke berechnet werden Du kennst Geschwindigkeit und Weg. Damit sollte sich die Zeit recht einfach ausrechnen lassen. Mirko
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde Dich hier an.
Jetzt anmelden