k-means

    0熱度

    1回答

    我有一個顯示兩個真正大集羣的PCA,我不知道如何確定每個集羣中的哪些樣本。 如果有幫助,進出口使用prcomp生成PCA: pca1 <- autoplot(prcomp(df), label = TRUE, label.size = 2) 我的方法是嘗試集羣中使用K均值的PCA輸出,2組獲得集羣: pca <- prcomp(df, scale.=TRUE) clust <- kmeans

    0熱度

    2回答

    如何在K-means ++聚類中找到擬合度,以顯示輸入與每個聚類對齊的百分比。例如,輸入A在羣集1中爲0.4,在羣集2中爲0.6。

    0熱度

    1回答

    我使用from pyspark.ml.clustering import KMeans庫來完成KMeans集羣。我想確保表示集羣只移動10次,並且沒有更多 10次。我應該使用哪個參數?對我而言,我認爲它應該是maxIter=10,但不確定。哪一個是最好的? maxIter=10或initSteps=10

    0熱度

    1回答

    我嘗試使用spark mllib kmeans,但作業掛在舞臺上「KAsans.scala:302上的collectAsMap」。我的代碼是由python寫的。 能有一個人告訴我什麼是對每個階段發生的事情,如「聚集在KMeans.scala:436」:「404 KMeans.scala彙總」,「在KMeans.scala collectAsMap:302」 here is the jobs pic

    0熱度

    1回答

    我有維基百科文章的語料庫。我找出了10,000個最常用的單詞,找到了它們的Word2Vec向量,並且在這些向量上使用了球形k-均值,根據意義上的相似性將這些單詞聚類爲500個組。 我挑出了3個單詞集並將單詞轉換回單詞向量。每個單詞向量都是一個300個數值的數組,所以我將它們全部應用PCA(從sklearn)將它們轉換爲2D。然後我繪製: 每個點代表一個字,每種顏色代表1簇。問題是,這些羣集不應該重

    1熱度

    1回答

    所以我想知道是否可以對多行​​數據框進行排序。例如,假設有一個有5行的數據框,我想隨機選擇幾行,在這種情況下,我會說2,我將它指定爲centroid1和centroid2,然後根據這些行對數據框進行排序。在這種情況下,小於質心1的行高於質心1,大於質心1但小於質心2的行位於它們之間,大於質心2的行位於質心2以下。 def compareRows(arr1, arr2): a1 = sum

    0熱度

    1回答

    如何在結構化數據中的多列上做k? 在下面1列(名稱)及其所完成的例子 tfidf_matrix = tfidf_vectorizer.fit_transform(df_new [「名」]) 這裏僅使用名字,但說我們想用的名字和國家,我是否應該將國家添加到同一專欄如下? df_new['name'] = df_new['name'] + " " + df_new['country'] tfidf_

    0熱度

    1回答

    我想了解輸入.csv文件上的K均值聚類,它由56376行和兩列組成,第一列代表id,第二列代表一組字/此數據的示例如下: ** 1。 1428951621做版必修來到米蘭2013年4月19日maynardmonday 16 1429163429室溫windeerlust sehun hyungluhan yessehun做甚至版必修 天今天** 用於處理這種情況的Scala代碼數據看起來像這樣 v

    3熱度

    3回答

    我試圖使用tensorflow.contrib.learn.KMeansClustering作爲Tensorflow中圖的一部分。我想用它作爲圖的組成部分,給我預測和中心。代碼的相關部分如下: with tf.variable_scope('kmeans'): kmeans = KMeansClustering(num_clusters=num_clusters,

    -1熱度

    1回答

    我跑了K-Means模型 val kmeans = new KMeans().setK(k).setSeed(1L) val model = kmeans.fit(train_dataset) 然後提取聚類中心(重心) var clusterCenters:Seq[(Double,Double,Double,Double,Double,Double,Double,Double,Double)