Titan2345 Geschrieben 22. Mai 2010 Geschrieben 22. Mai 2010 Hallo zusammen, ich hab von meinem Lehre eine Aufgabe bekommen, bei der ich "etwas" überfordert bin...ich hoffe, mir kann hier einer helfen oder paar tipps geben. zur Info: Übertraggunsstrecke s=150km Bitrate v=2048kbit/s Signalausbreitungsgeschwindigkeit c=0.8 Bitfehlerwarscheinlichkeit p=10^(-7) maximale länge eines datenblocks l=1280 Oktett a) es soll die signallaufzeit der übertragungsstrecke berechnet werden und wie lang die übertragung eines datenblocks maximaler länge ist. mit welcher warscheinlichkeit ist ein datenblock maximaler länge gestört? wie oft muss solch ein datenblock im mittel übertragen werden? c) kanalausnutzung berechnen d) welcher wert ist für die timeout-Zeit des timers t1 mindestens einzustellen,wenn für die vernachlässigten zeiten insgesamt einer reserve von 10% vorgesehen wird? also irgendwie raff ich nix bei der aufgabe. kann mir dabei irgendeiner helfen? Zitieren
flashpixx Geschrieben 23. Mai 2010 Geschrieben 23. Mai 2010 Und was hast Du bis jetzt selbstständig erarbeitet? Das Forum ist nicht dafür gedacht, dass andere Deine Hausaufgaben machen. Du solltest zeigen, dass Du Ansätze bei den Aufgabenteilen hin bekommst. Zitieren
netzwerker Geschrieben 26. Mai 2010 Geschrieben 26. Mai 2010 a) es soll die signallaufzeit der übertragungsstrecke berechnet werden Du kennst Geschwindigkeit und Weg. Damit sollte sich die Zeit recht einfach ausrechnen lassen. Mirko Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.