scalability

    -1熱度

    1回答

    我有一些問題,我希望有人能夠爲我解答。 我們的情況是,我們正在考慮對現有系統進行全面替代。首先我要描述我們現有的系統。 我們目前正在純粹的對象堆棧上運行。環境是面向對象,數據庫是面向對象。我們目前有2-3百萬行代碼,由2-3人開發,目前我們有一個6人的開發團隊,這個團隊繼續發展。最初的發展始於1997年,我們安裝了許多客戶。環境是64位,語言和數據庫,多語言,並且是UNICODE。我們使用的操作系

    0熱度

    1回答

    試圖僅使用HTML/CSS製作可縮放的字體大小。它會起作用嗎?

    0熱度

    1回答

    我們在windows server 2012上部署了一個簡單的express節點服務器,它只接收3個參數的GET請求。它對這些參數做了一些小的處理,有一個非常簡單的內存節點緩存用於緩存這些參數組合中的一些,與外部許可證服務器的接口爲請求用戶提取許可證並將其設置在cookie中,隨後是,它通過負載平衡器(使用zmq運行)與一些工作人員進行交互,以下載一些大文件(分塊,解壓並提取它們,將它們寫入某些目

    0熱度

    2回答

    我們要在改造一個CMS爲基礎的網站的,我們希望服務至少10+萬獨立用戶/月的電視頻道,約400多萬個請求/月,平均帶寬40兆兆字節的工作/月這是他們的舊網站的CloudFlare統計數據,他們期待更多。我們正在計劃將後端作爲rest API來構建,作爲前端響應和另一個響應cms管理員面板的應用程序API,我們之間爭論不休。 Ruby和節點,還有一些人說節點更快,在資源消耗方面會更便宜,Ruby對節

    2熱度

    1回答

    假設我可以在帶有張量流的GTX 1070卡上訓練樣本大小爲N,批次大小爲M,網絡深度爲L。現在,假設我想要訓練更大的樣本2N和/或更深的網絡2L並解決內存錯誤。 插入額外的GPU卡會自動解決這個問題(假設所有GPU卡的內存總量足以容納批次和它的漸變)?或者純張量流不可能? 我讀過,有比特幣或etherium的礦工,可以用多張GPU卡建立採礦場,而且這個礦場的採礦速度會更快。 採礦農場是否也能更好地

    0熱度

    4回答

    這聽起來像一個愚蠢的問題,但我仍然希望有人/專家接聽/證實了這一點。 可以說我有一個3節點集羣卡桑德拉。可以說我有一個數據庫和一個表。對於這個單獨的表可以說我得到了3個節點cassandra的1K寫/秒的吞吐量。如果明天我在這張表上的寫入負載增加/縮放到10K或20K,我能通過增加10倍或20倍的簇大小來處理這種寫入負載嗎? 我卡桑德拉的理解說,這是可能的(如Cassandra是讀寫可擴展),但希

    1熱度

    1回答

    正在嘗試運行mesos火花作業集羣查詢彈性數據,使用esJsonRDD查詢是這樣的: Fetching esJsonRDD from elasticsearch with complex filtering in Spark ,併爲多跑細小於32個節點的節點彈性羣集。作爲彈性節點的增加,作業失敗下面的例外: org.elasticsearch.hadoop.EsHadoopIllegalArgum

    1熱度

    2回答

    的數千我想與數百個測試的上傳服務,如果不是數千,慢 HTTPS連接 同時。 我想有很多,比如3G質量的連接, ,每個節點都有低帶寬和高延遲,每個發送幾兆字節的數據直到服務器, 導致大量的併發的長期請求由服務器處理。 有許多負載生成工具可以生成數千個同時發生的請求。 (我目前使用Locust,主要是讓我可以 優勢,用Python寫的我現有的客戶端庫。) 這類工具通常通過共享網絡鏈路儘可能快地 運行每

    0熱度

    3回答

    我擁有數百萬個文檔(接近1億個),每個文檔都有諸如skills,hobbies,certification和education的字段。我想找出每個文檔與評分之間的相似度。 下面是一個數據的例子。 skills hobbies certification education Java fishing PMP MS Python reading novel SCM BS C#

    2熱度

    1回答

    我們有用戶數據庫,用於創建/更新用戶以及識別(讀取)用戶。我們閱讀的次數比我們寫的更多。寫約100萬/天,閱讀大約1億多。我們可以分開讀寫,但是AFAIK需要很強的一致性。 如果我們從讀取副本開始讀取,它將最終保持一致。用戶創建時可能會出現一些情況,但尚未在只讀副本中提供。或者,用戶已經更新了一些信息(名稱),並且這種改變在其他地區尚未出現。僅從一個地區服務意味着其他地區的更高延遲。 我們目前正在