recommendation-engine

    0熱度

    1回答

    我有相似之處,我從python庫中的pairwise中獲得基於項目的CF.然後我用 Implementing your own recommender systems in Python這個預測。 pred = ratings.dot(similarity)/np.array([np.abs(similarity).sum(axis=1)]) 但我得到壞評級預測。評級預測約爲0.1 - 0.9

    6熱度

    3回答

    我有PostgreSQL中包含表中的一些汽車百萬記錄: +----+--------+------+---------+-----------+-------------+------------+------------+ | id | price | year | mileage | fuel_type | body_type | brand | model | +----+-------

    2熱度

    1回答

    我正在開發一個推薦引擎。我想我無法在內存中保留整個相似性矩陣。 我計算了10,000個項目的相似度,它超過了4000萬個浮點數。我將它們存儲在一個二進制文件中,它變爲160 MB。 哇! 問題是我可能有近20萬個物品。 即使我將它們分爲幾組併爲每個組創建相似性矩陣,我仍然必須在某個時間將它們加載到內存中。 但它會消耗很多內存。 那麼,有沒有辦法處理這些數據? 我應該如何將它們存儲並加載到內存中,同

    0熱度

    1回答

    我有一個數據框有3列。前兩個是因素,第三個是數字。我只是從行1230中選擇數據行1250的數據如下 > beer_ratings[1230:1250,] beer_beerid review_profilename review_overall 1230 52211 WITTBEER 4.0 1231 52211 orbitalr0x 3.0 1232 522

    -1熱度

    1回答

    我想運行neo4j-reco自述文件與獨立服務器一起使用。 如何更改它以使用並連接到我的外部neo4j服務器?

    0熱度

    1回答

    我在推薦引擎上工作,我現在面臨的一個問題是項目的相似度矩陣非常大。 我計算了2萬個項目的相似度矩陣,並將它們存儲爲一個二進制文件,該文件調整爲接近1 GB。我認爲這太大了。 如果您有很多項目,處理相似性矩陣的最佳方法是什麼? 有任何建議!

    2熱度

    1回答

    我使用熊貓建設推薦人,我需要加載一個大的csv文件(類似10萬條記錄)。 我輸入文件看起來像這樣: P1,P2,...,K 1 1 ... 0 B 0,0 ... 0 C 0 0 ... 1 k近400列。 我嘗試閱讀我的文件,此調用: pd.read_csv(url,header=0, sep="\t",index_col=0,encoding="utf-8") 當我閱讀文件,熊貓錯誤地猜測

    0熱度

    2回答

    我想提出推薦位置,但我對我的sklearn有問題。我一直在更新我的圖書館,但它不工作。我使用Python 2.7與蟒蛇 ,請幫助我:d 這是我的庫代碼。 from sklearn.cluster import KMeans import numpy as np import pandas as pd from sklearn.cross_validation import train_tes

    0熱度

    2回答

    我正在製作一個程序,提供一些用戶必須學習的英語句子。 例如: 首先,我提供了一個句子「我今天去學校」用戶。 然後,如果用戶想要學習更多這樣的句子,我發現一些語句與該句子具有高度的語法相似性。 我認爲提供句子的唯一方法是計算相似度。 有沒有辦法計算兩句之間的語法相似度? 還是有更好的方法來使該算法? 任何意見或建議,將不勝感激。謝謝。

    1熱度

    1回答

    PySparks mllib包提供train()和trainimplicit()方法,分別用於在顯式和隱式數據上訓練推薦模型。 我想訓練隱式數據模型。更具體的物品購買數據。既然是在我的情況非常罕見,用戶將購買的物品超過一次,在「收視率」或「偏愛」始終爲1。所以,我的數據集的樣子: u1, i1, 1 u1, i2, 1 u2, i2, 1 u2, i3, 1 ... un, im, 1 其中u是一