0

我正在通過Gallager解決數據網絡中的一些示例,我不太瞭解這個特定的問題。問題變爲如下:傳輸數據時的標準偏差

假設一個鏈路上的預期幀長度爲1000個比特,標準偏差是500個比特 找到預期時間和到9600鏈路上傳送一萬幀所需的時間標準偏差。 後續問題是:幀的傳輸速率通常定義爲預期傳輸時間的倒數。使用你在前面的問題中找到的結果,討論這個定義是否合理。

我嘗試如下:

時間發送一幀是:九千六百分之千=0.104秒 因此,定時發送萬幀是= 104,000秒

我沒看懂第二部分,它要求找到標準差和後續問題。我也不明白當我們說500比特的標準偏差是什麼意思時,這是否意味着錯誤損失,在這裏是50%?

這不是一個家庭作業問題。我有幾天的期中考試,我正在解決這些問題,以提高我對這個問題的掌握程度。

任何幫助/提示將理解

感謝, 錢德爾

回答

1

假設分佈是正常的,那麼你有一個sum of normally distributed variables。在這種情況下,期望和方差都很容易計算,您可以添加它們。

1 frame ~ N(1000,500) 
1 mil frams ~ (1E9,5E8) 

由9600

E[time] ~= 104167 seconds 
std[time] ~= 52083 seconds 

一個細節,讓您剛剛劃分這兩個時間是,這是愚蠢的他們使用正態分佈,因爲有一定的概率不爲零的框架有負比特。因此,有一些非零的機會,你會在負面時間發送你所有的(負數)位...因爲他們沒有指定分配,我不明白他們可能意味着什麼。