machine-learning

    0熱度

    1回答

    我想重現一個教程看到 here。 一切工作完美,直到我用我的訓練集添加.fit方法。 這裏是我的代碼示例: # TRAINING PART train_dir = 'pdf/learning_set' dictionary = make_dic(train_dir) train_labels = np.zeros(20) train_labels[17:20] = 1 train_m

    0熱度

    1回答

    我想用tf.metrics.accuracy跟蹤我的預測的準確性,但我不確定如何使用update_op(以下acc_update_op),該函數返回: accuracy, acc_update_op = tf.metrics.accuracy(labels, predictions) 我的想法是將其添加到tf.GraphKeys.UPDATE_OPS會有道理,但我不知道如何做到這一點。

    0熱度

    2回答

    我正在學習深度學習和張量板,幾乎是示例代碼使用摘要。 我想知道爲什麼我需要使用變量摘要。 它們是諸如最小,最大,平均值,變異等總結的許多類型的數據。 我應該在典型情況下使用什麼? 如何分析和我能從這些彙總圖中得到什麼? 謝謝:d

    0熱度

    1回答

    我從https://github.com/tensorflow/models/tree/master/tutorials/image/cifar10以下cifar10教程。 在這個項目中,有6個類。在搜索互聯網後,我瞭解了cifar10.py和cifar10_input.py類。但我無法理解cifar10_train.py中的火車功能。這是cifar10_train.py類中的火車功能。 def

    0熱度

    1回答

    分類節點號我有 library(party) model.cart <- ctree(qtcf ~ ., data=training) 改變了我的情況下,分類樹,我想在我的訓練集(訓練)和測試組(測試),顯示終端節點創建一個新的變量編號爲特定的觀察。 顯然,它可以手動進行這樣的: training$ctreegroup[((training$sex == 'female') & (train

    0熱度

    1回答

    我目前正在學習在機器學習問題中進行堆棧。我將獲得第一個模型的輸出,並將這些輸出用作第二個模型的特徵。 我的問題是:訂單是否重要?我正在使用套索迴歸模型和增強樹。在我的問題中,迴歸模型勝過了提升樹。因此我在想,我應該首先使用迴歸樹和增強樹。 作出此決定時,我需要考慮哪些因素?

    1熱度

    2回答

    我是機器學習的新手。 我有一個連續的數據集。我正在嘗試使用幾個功能對目標標籤進行建模。我利用train_test_split函數來分離列車和測試數據。我正在訓練,並使用下面的代碼測試模型: X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2) model = Sequential() model.ad

    2熱度

    1回答

    我剛開始使用Sklearn(MLPRegressor)和Keras(Sequential,有Dense圖層)。 今天我讀了this論文,描述如何使用餘弦相似度而不是點積來提高性能。這基本上說,如果我們用f((w^Tx)/(|x||w|))替換f(w^Tx),即我們不只是將點積提供給激活函數,而是將其標準化,我們就可以獲得更好更快的性能。 有沒有在Python中執行此操作的方法,特別是在SKlear

    1熱度

    1回答

    我想將投票分類器應用於多個管道分類器並調整網格搜索中的參數。最小的例子給我一個錯誤。我必須以不同的方式做到這一點嗎? from sklearn.ensemble import RandomForestClassifier from sklearn.ensemble import AdaBoostClassifier from sklearn.ensemble import VotingClas

    1熱度

    1回答

    我正在嘗試通過創建一個字符文本的熱編碼來準備數據文件,我可以稍後使用這些編碼來訓練我的模型進行分類。我有一個由字符行組成的訓練數據文件,我最初正在做它們的整數編碼,然後是一個熱門編碼。 例如這是數據文件的外觀: afafalkjfalkfalfjalfjalfjafajfaflajflajflajfajflajflajfjaljfafj fgtfafadargggagagagagagavcacac