3
當我運行該代碼Keras:Keras get_weight解釋爲RNNs
networkDrive = Input(batch_shape=(1,length,1))
network = SimpleRNN(3, activation='tanh', stateful=False, return_sequences=True)(networkDrive)
generatorNetwork = Model(networkDrive, network)
predictions = generatorNetwork.predict(noInput, batch_size=length)
print(np.array(generatorNetwork.layers[1].get_weights()))
我得到這個輸出
[array([[ 0.91814435, 0.2490257 , 1.09242284]], dtype=float32)
array([[-0.42028981, 0.68996912, -0.58932084],
[-0.88647962, -0.17359462, 0.42897415],
[ 0.19367599, 0.70271438, 0.68460363]], dtype=float32)
array([ 0., 0., 0.], dtype=float32)]
我猜想,即(3,3)矩陣是重矩陣,將RNN單元相互連接起來,並且兩個陣列中的一個可能是偏差 但是第三個是什麼?
好的,有道理。爲什麼正常的密集層沒有輸入矩陣,但只是連通性和偏倚矩陣? –
密集層只是「輸入層」。他們有形狀(input_dim,output_dim) –