vowpalwabbit

    8熱度

    1回答

    我想要獲得用反轉散列保存的vowpal wabbit模型。我有以下產生有效模式: vw --oaa 2 -b 24 -d mydata.vw --readable_model mymodel.readable 產生這樣一個模型文件: Version 7.7.0 Min label:-1.000000 Max label:1.000000 bits:24 0 pairs: 0 triple

    2熱度

    1回答

    我試圖通過this paper其中描述了ECT算法,但無法做出多大貢獻。 我知道它與one-against-al(oaa)不同,甚至比oaa表現更好。我想簡單解釋一下ect的工作原理。

    15熱度

    2回答

    我正在嘗試使用vowpal wabbit進行邏輯迴歸。我不知道這是否是正確的語法做 For training, I do ./vw -d ~/Desktop/new_data.txt --passes 20 --binary --cache_file cache.txt -f lr.vw --loss_function logistic --l1 0.05 For testing I do

    2熱度

    1回答

    我正在使用vowpal wabbit進行邏輯迴歸。我開始知道vowpal wabbit從給定的訓練數據中選擇了一個保留集來驗證。這個集合是隨機選擇的嗎?我有一個非常不平衡的數據集,有100多個例子和1000個例子。我想知道給這個訓練數據,哇哇wabbit如何選擇保留的例子? 如何分配更多的權重+五個例子

    2熱度

    1回答

    我正在嘗試使用vw來查找預測是否有人會打開電子郵件的單詞或短語。如果他們打開電子郵件,則目標爲1,否則爲0。我的數據是這樣的: 1 |A this is a test 0 |A this test is only temporary 1 |A i bought a new polo shirt 1 |A that was a great online sale 我把它改成了一個名爲「te

    4熱度

    1回答

    我應該在VW中使用哪些參數來執行二進制分類任務?例如,我們使用rcv1_small.dat。 I thought最好使用邏輯損失函數(或鉸鏈),並且使用--oaa 2是沒有意義的。然而,實證結果(在所有4個實驗報道漸進驗證0/1虧損)表明最好的組合是--oaa 2沒有邏輯的損失(即默認平方損失): cd vowpal_wabbit/test/train-sets cat rcv1_small.

    2熱度

    1回答

    我一直在試圖理解vowpal wabbit算法。 是任何人都可以幫助我理解大衆和如何實現它

    0熱度

    2回答

    我想在Ubuntu 12.04 64位上安裝vowpal wabbit。我跟着這個page的方向,這是我在這裏總結: git clone git://github.com/JohnLangford/vowpal_wabbit.git cd vowpal_wabbit make make test 所有,沒有任何錯誤完成。但是,當我嘗試 vw 或 vw --help 我得到以

    4熱度

    1回答

    我使用VW 7.4做一些二元分類: cat train | vw -k --binary --cache_file cache -f model --compressed --passes 10 --loss_function hinge 在測試時,我可以通過訪問成績: cat test | vw -t -i model -p pred 我不明白的是,如果我將--bootstrap 4添加

    5熱度

    3回答

    有沒有辦法發送數據來在Vowpal Wabbit中訓練模型而不寫入磁盤? 這是我正在嘗試做的。我有一個相對較大的csv數據集(大約2GB),適合內存,沒有問題。我將它加載到數據框中,並且我有一個函數可以將該數據框中的數據轉換爲VW格式。 現在,爲了訓練模型,我必須先將轉換後的數據寫入文件,然後將該文件提供給VW。寫入磁盤部分的時間太長,尤其是因爲我想嘗試使用不同的功能轉換的各種模型,因此我必須多次