2017-10-13 102 views
0

後,爲了獲得在生成對抗性網絡的洞察力,我想實現在此基礎上Stanford university assignment使用tensorflow爲MNIST數據集自己的GaN。(MNIST - GAN)鑑別和發電機誤差下降接近零的第一次迭代

我仔細檢查和研究了我對給定練習的解答,並且通過了測試。但是,我的發電機只會產生噪音。

我很確定我得到的幫助功能正確,所有的測試都通過了,而且我在網上找到的參考文獻顯示了完全相同的實現。那麼,它可能 出問題纔是鑑別和發電機架構:

def discriminator(x): 
    with tf.variable_scope("discriminator"): 
     l_1 = leaky_relu(tf.layers.dense(x, 256, activation=None)) 
     l_2 = leaky_relu(tf.layers.dense(l_1, 256, activation=None)) 
     logits = tf.layers.dense(l_2, 1, activation=None) 
     return logits 

def generator(z): 
    with tf.variable_scope("generator"): 
     l_1 = tf.maximum(tf.layers.dense(z, 1024, activation=None), 0) 
     l_2 = tf.maximum(tf.layers.dense(l_1, 1024, activation=None), 0) 
     img = tf.tanh(tf.layers.dense(l_2, 784, activation=None)) 
     return img 

我看到,發電機和鑑別錯誤在第一迭代下降接近於零。

Iter: 0, D: 1.026, G:0.6514 
Iter: 50, D: 2.721e-05, G:5.066e-06 
Iter: 100, D: 1.099e-05, G:3.084e-06 
Iter: 150, D: 7.546e-06, G:1.946e-06 
Iter: 200, D: 3.386e-06, G:1.226e-06 
... 

由於學習率較低,例如, 1e-7,鑑別器和發生器的誤碼率緩慢衰減,但最終會降至零,併產生噪聲。

Iter: 0, D: 1.722, G:0.6772 
Iter: 50, D: 1.704, G:0.665 
Iter: 100, D: 1.698, G:0.661 
Iter: 150, D: 1.663, G:0.6594 
Iter: 200, D: 1.661, G:0.6574 
... 

我得到了tensorflow圖並運行了我的實驗,但迄今未能解釋任何有意義的實驗。 如果您有任何建議或可以推薦一種調試技術,我會很高興聽到它。

按照要求,這裏是我的GAN碼 - 失重:

def gan_loss(logits_real, logits_fake): 
    labels_real = tf.ones_like(logits_real) 
    labels_fake = tf.zeros_like(logits_fake) 

    d_loss_real = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_real, labels=labels_real) 
    d_loss_fake = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake) 
    D_loss = tf.reduce_mean(d_loss_real + d_loss_fake) 

    G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake)) 
    return D_loss, G_loss 
+0

海事組織最可能的事情是你在發電機的損失功能方面有錯誤。你能顯示你的損失函數代碼嗎? –

+0

我更新了我的問題 –

+0

測試結果爲: d_loss中的最大錯誤:1.20519e-16 g_loss中的最大錯誤:0.0119083 –

回答

2

據我瞭解這種模式,你應該更改此設置:

G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
    logits=logits_fake, labels=labels_fake)) 

這樣:

G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
    logits=logits_fake, labels=tf.ones_like(logits_fake)))