ceph

    0熱度

    1回答

    根據來自Infernalis版本的http://docs.ceph.com/docs/master/release-notes/的信息,當達到池配額時,ceph更改了默認行爲(當達到池配額時,librados操作現在會無限期地阻塞,就像它們在(以前他們會返回-ENOSPC)默認情況下,一個完整的集羣或池將會被阻塞,如果你的librados應用程序可以正常處理ENOSPC或EDQUOT錯誤,那麼你可

    0熱度

    1回答

    這樣做(AWS-SDK紅寶石寶石): s3_client.put_bucket_lifecycle_configuration({ bucket: bucket, lifecycle_configuration: { rules: [ { id: "clean-temporary", status: "Disabled", # re

    0熱度

    1回答

    考慮我想編寫一個即時消息應用程序,用戶可以私下發送和接收文件。我知道,在Object Stores(如Ceph或Minio)中存儲像圖像這樣的對象是個不錯的主意,但是如何限制對相關用戶訪問文件?我是否需要對任何文件的任何請求的檢查許可?如果是,我如何將此授權集成到Minio或Ceph。 (Minio是首選。)

    0熱度

    1回答

    我有三個OSD,並在我的Ceph配置中指定:osd pool default size = 2。我計算了我的三個OSD中每一個的/var/lib/ceph/osd/佔用的空間量。然後,我上傳了一個大文件。之後,每個OSD上的空間增加了大約文件的大小。爲什麼對象被複制到所有三個OSD而不是兩個,就像它被配置的那樣?

    0熱度

    1回答

    我跟蹤了CPU使用情況。即使在增加節點數量後,我仍然得到一個持續性調度錯誤,其中包含以下術語:cpu不足,MatchNodeSelector,PodToleratesNodeTaints不足。

    1熱度

    1回答

    我正在使用Ceph,通過radosgw上傳許多文件。之後,我想刪除這些文件。我試圖做到這一點在Python中,類似這樣的: bucket = conn.get_bucket(BUCKET) for key in bucket.list(): bucket.delete_key(key) 之後,我用bucket.list()桶中列出的文件,這說的水桶現在是空的,因爲我的本意。 但是,

    0熱度

    1回答

    先決條件: 寶石10.2.3 OS:Centos的7.2 1管理員機器命名爲:頭孢管理員 1個顯示器機:頭孢-3- MON1(IP:192.168.0.171) 1 metadataserver:頭孢-3- MDS1 3 OSD:頭孢-3- OSD1頭孢-3- OSD2頭孢-3- osd3 羣集是能復原的運行。 我設置了一臺名爲ceph-client的新機器。 如果我手動掛載它的文件系統,一切正常

    2熱度

    1回答

    我爲ceph添加了一個額外的驅動器,但是在切換磁盤之後,創建失敗,因爲設備映射器正在使用它。重新啓動它是正確創建但在運行時ceph osd tree後,我得到: ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -1 4.53099 root default -2 3.62700 host mymachine2 0 0.9039

    13熱度

    1回答

    Ceph的teuthology安裝失敗在Ubuntu 14.04以下錯誤,內核4.4.0-51泛型: ImportError: <module 'setuptools.dist' from '/usr/lib/python2.7/dist-packages/setuptools/dist.pyc'> has no 'check_specifier' attribute

    0熱度

    1回答

    IgniteFS可用於HDFS之上。但是,Ceph還提供對HDFS http://docs.ceph.com/docs/master/cephfs/hadoop/的支持。 是否可以在Ceph頂部使用IgniteFS來加速文件訪問?