knn

    0熱度

    2回答

    我試圖用非數字數據訓練KNeighborClassifier,但我提供的自定義度量允許計算樣本之間的相似度分數。 from sklearn.neighbors import KNeighborsClassifier #Compute the "ASCII" distance: def my_metric(a,b): return ord(a)-ord(b) #Samples a

    0熱度

    1回答

    我在M.Nixon的書中發現了k個最近鄰居Mathcad的實現,但'distance'和'coord'函數不起作用。我該如何解決它? mathcad implementation

    0熱度

    1回答

    我有4個不同的數據集,每個數據集都包含屬於兩個類別之一的二維樣本:1或2.每個樣本的類別標籤(1或2)位於最後一列。第一列和第二列包含表示樣本的2D點的座標。我的任務是, 對於K-NN找到k的最佳值,並將其與那些1-NN的使用Scikit 我是新來的機器學習和python比較。請讓我知道如何找到最好的k,並根據哪個衡量標準選擇最好的k。

    -1熱度

    1回答

    在KNN (K nearest neighbour)分類器中,如果選擇K的偶數值,那麼多數投票規則或歐幾里得距離規則中的預測會是什麼。例如,如果有3班說 虹膜setosa 虹膜雲芝 虹膜弗吉尼亞 現在說我們的n_neighbors = 6價值。多數票投票規則有相當多的機會獲得平局結果?在大多數可視化中,這個地區都以白色表示,說不能做出任何決定。但是對於領帶的實際預測是什麼?這個問題很難模擬,相當概

    0熱度

    1回答

    我使用Scikit學會做工作 K最近Neigbour分類: from sklearn.neighbors import KNeighborsClassifier model=KNeighborsClassifier() model.fit(train_input,train_labels) 如果打印我的數據: print("train_input:") print(train_inpu

    0熱度

    1回答

    我正在嘗試構建一個程序,該程序可以正確,自信地識別Google Cloud Vision中的對象(表示爲GCV)。返回的結果在大多數時間都是正確的,因此每個標籤都有一定的準確度分數。 { "banana": "0.92345", "yellow": "0.91002", "minion": "0.89921", } 我正在使用的環境具有不同的閃電條件組合,並且物

    1熱度

    1回答

    假設我有多維數據集,其中有許多向量作爲數據。我正在寫一個算法,它需要做所有那些向量的k近鄰搜索 - 經典KNN。然而,在我的算法中,我向整個數據集中添加了新的向量,並且需要將這些新的向量包含到我的KNN搜索中。我想要有效地做到這一點。我研究了scikit-learn的KD樹和球樹,但他們不允許插入(根據概念的性質)。我不確定SR樹或R樹是否會提供插入,但在任何情況下,我都無法找到3D以外的數據的P

    1熱度

    1回答

    我正在研究一個算法,該算法需要從某個給定查詢點的第k個最近點重複(歐幾里得)距離,所有查詢點都取自一個點向量。另外,我反覆需要找到某個點的給定半徑內的所有點。 我正在考慮使用nanoflann庫中的k-d樹。但是,knnSearch()函數返回所有k個最近的鄰居,我不需要。 (雖然radiusSearch()函數很適合我)。 有沒有更有效的方式來獲得我需要的東西,除了每次都通過所有k個最近的鄰居?

    0熱度

    1回答

    我有一個8 GB的RAM和英特爾酷睿I5處理器的聯想IdeaPad筆記本電腦。我每100個維度有60k個數據點。我想做KNN,爲此我運行LMNN算法來查找Mahalanobis度量標準。 問題是在我的Ubuntu上運行一個空白屏幕2小時後出現。我沒有得到什麼問題!我的記憶變滿了還是別的什麼? 那麼有什麼方法可以優化我的代碼? 我的數據集:data 我LMNN實現: import numpy as

    0熱度

    1回答

    我已經看到很多計算KNN的歐幾里得距離的例子,但是非情感分類的例子。 比如我有一句「一個非常接近的比賽」 如何計算的一句「偉大的博弈」的歐氏距離?