我想導入csv文件與約4000萬行到neo4j。爲此,我嘗試使用https://github.com/jexp/batch-import中的「批量輸入器」。 也許這是一個問題,我提供自己的ID。這是例子neo4j batchimporter與大ID很慢
nodes.csv
我:ID L:標籤
315041100人
201215100人
315041200人
RELS。 csv:
開始 端 類型 relart
315041100 201215100 HAS_RELATION 30006
315041200 315041100 HAS_RELATION 30006
的batch.properties的內容:
use_memory_mapped_buffers=true
neostore.nodestore.db.mapped_memory=1000M
neostore.relationshipstore.db.mapped_memory=5000M
neostore.propertystore.db.mapped_memory=4G
neostore.propertystore.db.strings.mapped_memory=2000M
neostore.propertystore.db.arrays.mapped_memory=1000M
neostore.propertystore.db.index.keys.mapped_memory=1500M
neostore.propertystore.db.index.mapped_memory=1500M
batch_import.node_index.node_auto_index=exact
./import.sh graph.db nodes.csv rels.csv
將被正確處理,但大約需要60秒!
Importing 3 Nodes took 0 seconds
Importing 2 Relationships took 0 seconds
Total import time: 54 seconds
當我使用較小的標識 - 例如3150411,而不是315041100 - 它需要僅需1秒!
Importing 3 Nodes took 0 seconds
Importing 2 Relationships took 0 seconds
Total import time: 1 seconds
其實我會帶10個數字更大的ID。我不知道我做錯了什麼。任何人都可以看到錯誤?
- JDK 1.7
- batchimporter 2.1.3(與Neo4j的2.1.3)
- OS:ubuntu的14.04
- 設備:8核-Intel的CPU,RAM 16GB