我正在使用word2vec模型來訓練神經網絡,並在向量空間中創建一個用於查找相似詞的神經嵌入。但我的問題是關於單詞和上下文嵌入(矩陣)中的維度,我們在訓練開始時通過隨機數(向量)將它們初始化,如下所示https://iksinc.wordpress.com/2015/04/13/words-as-vectors/Word2Vec中的尺寸從哪裏來?
假設我們要顯示{book,paper ,筆記本,小說}的話,首先我們應該建立一個矩陣,其尺寸爲4x2或4x3或4x4等,我知道矩陣的第一維度就是我們詞彙量的大小| v |。但矩陣的第二維(矢量的維數),例如這是一個單詞「book」的向量[0.3,0.01,0.04],這些數字是什麼?它們有什麼含義?例如0.3的數字相關在詞彙表中,詞「書」和「紙」之間的關係,0.01是書和筆記本之間的關係等。 就像TF-IDF或每個維(列)Y具有含義的共生矩陣 - 與X行中的單詞相關的單詞或文檔。
你問了很多有趣的問題! – Aaron