我正在通過Gallager解決數據網絡中的一些示例,我不太瞭解這個特定的問題。問題變爲如下:傳輸數據時的標準偏差
假設一個鏈路上的預期幀長度爲1000個比特,標準偏差是500個比特 找到預期時間和到9600鏈路上傳送一萬幀所需的時間標準偏差。 後續問題是:幀的傳輸速率通常定義爲預期傳輸時間的倒數。使用你在前面的問題中找到的結果,討論這個定義是否合理。
我嘗試如下:
時間發送一幀是:九千六百分之千=0.104秒 因此,定時發送萬幀是= 104,000秒
我沒看懂第二部分,它要求找到標準差和後續問題。我也不明白當我們說500比特的標準偏差是什麼意思時,這是否意味着錯誤損失,在這裏是50%?
這不是一個家庭作業問題。我有幾天的期中考試,我正在解決這些問題,以提高我對這個問題的掌握程度。
任何幫助/提示將理解
感謝, 錢德爾