Datenübertragungs Aufgabe

Status
Für weitere Antworten geschlossen.

Titan2345

Newbie
Registriert
Mai 2010
Beiträge
1
Hallo zusammen,

bin neu hier und weiß deshalb nicht, ob ich das hier in "Netzwerke und Internet" schreiben kann aber ich hab ein problem. hab von meinem Lehre eine Aufgabe bekommen, bei der ich "etwas" überfordert bin...ich hoffe, mir kann hier einer helfen oder paar tipps geben.

zur Info:
Übertraggunsstrecke s=150km
Bitrate v=2048kbit/s
Signalausbreitungsgeschwindigkeit c=0.8
Bitfehlerwarscheinlichkeit p=10^(-7)
maximale länge eines datenblocks l=1280 Oktett

a) es soll die signallaufzeit der übertragungsstrecke berechnet werden und
wie lang die übertragung eines datenblocks maximaler länge ist.

b) mit welcher warscheinlichkeit ist ein datenblock maximaler länge gestört?
wie oft muss solch ein datenblock im mittel übertragen werden?

c) kanalausnutzung berechnen

d) welcher wert ist für die timeout-Zeit des timers t1 mindestens
einzustellen,wenn für die vernachlässigten zeiten insgesamt einer reserve
von 10% vorgesehen wird?

also irgendwie raff ich nix bei der aufgabe. kann mir dabei irgendeiner helfen?
 
wie hier einige echt zu moderatoren mutieren...holt euch woanders eure posts!...
zum thema, kann dir leider nicht helfen, da sind meine signaltechnik-skills zu bescheiden ;) dachte wir bewegen uns auf softwareebene.
lg
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben