nolearn

    1熱度

    2回答

    我讀的JPG圖片,然後重塑他們到一個張量。我鑄造的圖像作爲FLOAT32: def load(folder,table): X=[] train = pd.read_csv(table) for i,img_id in enumerate(train['Image']): img = io.imread(folder+img_id[2:]) X.append(im

    0熱度

    1回答

    我正嘗試使用nolearn並使用ConcatLayer來組合多個輸入。只要每個輸入具有相同的類型和形狀,它就會很好地工作。我有三種不同類型的輸入,最終會產生一個標量輸出值。 第一輸入是尺寸(288,1001) 第二輸入是長度87 第三的向量是一個標量值的圖像 我在第一個輸入上使用Conv2DLayer(s)。 第二個輸入使用Conv1DLayer或DenseLayer(不知道哪個會更好,因爲我無法

    5熱度

    3回答

    我在nolearn做了一個神經網絡,一個使用烤寬麪條的基於Theano的庫。 我不理解如何定義我自己的成本函數。 輸出層只有3個神經元[0, 1, 2],我想這是大部分肯定時,它提供1或2,但在其他方面 - 如果它是不是真的知道的1,2 - 回饋只需0.1 因此,我想出了一個成本函數(將需要調整),其中1和2的成本是0的兩倍,但我無法理解如何告訴網絡。 # optimization method:

    2熱度

    2回答

    我試圖用從nolearn包進口DBN功能,這裏是我的代碼: from nolearn.dbn import DBN import numpy as np from sklearn import cross_validation fileName = 'data.csv' fileName_1 = 'label.csv' data = np.genfromtxt(fileName, d

    3熱度

    1回答

    當我想導入: from nolearn.lasagne import NeuralNet 我總是得到這個錯誤 "cannot import name mse". 我Theano的版本是0.7.0。

    1熱度

    1回答

    我正在嘗試烤寬麪條和nolearn NeuralNet函數來近似一個簡單的sin函數。畢竟,神經網絡被證明是通用的逼近器,所以我想通過一個簡單的非線性函數嘗試千層麪來實驗性地顯示這個事實。這是代碼: import lasagne import numpy as np from lasagne import layers from lasagne.updates import nesterov

    0熱度

    1回答

    我在nolearn庫中使用NeuralNet類來完成分類任務。代碼如下: layers0 = [('input', InputLayer), ('hidden', DenseLayer), ('output', DenseLayer)] net0 = NeuralNet(layers=layers0, input_shape=(None, 7),

    2熱度

    1回答

    我一直在玩千層麪一段時間,現在使用卷積神經網絡的二元分類問題。然而,雖然我得到了良好(ish)的訓練和驗證損失結果,但我的驗證和測試精度始終保持不變(網絡始終預測同一類別)。 我碰到過this,這個人和我一樣有烤寬麪條的問題。他們的解決方案是設置regression=True,因爲他們在烤寬麪條上使用Nolearn。 有沒有人知道如何在千層麪內設置相同的變量(因爲我不想使用Nolearn)?除此之

    2熱度

    1回答

    我正在通過Daniel Nouri的關於面部識別的tutorial使用CNN的,我遇到了一些我不明白的代碼。丹尼爾是定義一個類在網絡的訓練中每次迭代結束時被調用,這將決定訓練是否應該提前停止: class EarlyStopping(object): def __init__(self, patience=100): self.patience = patience

    0熱度

    1回答

    我目前正在研究一些與機器學習相關的項目。 我從對象中提取了一些特徵。 所以我訓練和測試,與NB,SVM等分類算法和功能造成了約70%到80% 當我訓練與神經網絡使用nolearn.dbn,然後同樣的功能測試我約有25%正確分類。我有2個隱藏層。 我還是不明白神經網絡有什麼問題。 我希望能有一些幫助。 謝謝