最近幾天之前提過使用的P圖軟體Swar Chia Plot Manager推出新的0.1版 畫面顯示更為清楚, 但舊版的設定無法延續使用 不過水哥發現其實只是多添加幾個部分 其實補上去差異的部分就可以的 差異主要在於通知設定以及任務設定新增了幾個參數 在通知設定的部分 現在新增對於telegram機器人與IFTTT的支援 其實水哥之前接收訊息都是用telegram機器人居多, 但因為之前已經有discord了, 這次就沒有去設定 至於IFTTT, 推測應該可以搭配LINE notify來使用做通知, 不過一樣啦, 看自己常用哪個就用哪種吧! 任務參數的部分 這次新增了排除最終資料夾(skin full destinations)的功能 這樣可以有效排除solo與礦池雙挖的問題!! 像是之前版本, P好一張圖後, 官方錢包就會被加入P好圖的路徑, 因而把原本排除的plot都載入形成雙挖 加入這選項後就能避免... 另一個特性則是CPU親合度(enable cpu affinity)的部分 預先設定好P圖會用到的核心, 這樣就能夠避免減少調度CPU資源時所額外耗費的時間 讓你P圖更有效率 其實windows本身也可以設定這個功能 但預設都是系統管理 若是使用swar的親和性功能, 你在工作管理員內就可以看到預設被排定在哪幾個核心處理作業 以這樣的原則下去設定 就可以在多P的情況下, 盡可能去利用CPU資源而不打結 另外之前對於權重問題沒有太多理解 原來你P過幾個圖之後 可以使用指令python manager.py analyze_logs來分析既有的紀錄檔 他會列出建議的權重值 我們再把權重值填入設定檔中重新啟動即可 舊的設定檔可以前面加# mark掉 可以看到目前水哥設定的與原本預設的還是有段差距 應該是針對不同主機所因應的調整手段吧 0.1版大概就是這樣了 其他都差不多 原本水哥以為沒顯示的phase進度會有改善 沒想到卻還是沒有Orz... 或許~~之後再看看吧, 確實是有越來越好用的趨勢 像是現在都還會標示哪個任務使用哪個暫存硬碟, 連最終會放哪個硬碟都會標示 真是清楚多了@奇雅 希望未來能再進步吧 畢竟才0.1版...
https://mshw.info/mshw/?p=27239
同時也有10000部Youtube影片,追蹤數超過2,910的網紅コバにゃんチャンネル,也在其Youtube影片中提到,...
cpu affinity設定 在 矽谷牛的耕田筆記 Facebook 的最讚貼文
今天這篇文章探討的則是 resources 底下的 request/limit 問題。
本文作者之前遇到一個非常規律的服務警告問題,花了非常多時間與步驟去查詢,最後才發現是 Pod 裡面 Resource 的設定不夠嚴謹與完善。
舉例來說,
resources:
limit: cpu: 1000m
request: cpu: 100m
今天假設有一個服務描述,我對 cpu 的最低要求是 0.1顆,但是極限是 1顆
且有一個節點本身有 3 顆 CPU,這種情況下,我們對該服務設定多副本運行(10個). 那根據 request 的要求,10個副本頂多只需要 1 顆 cpu,所以非常輕鬆的可以將 10 個服務運行起來,但是如何今天遇到尖峰流量,每個 pod 都瘋狂使用 CPU會發生什麼事情?
每個副本的極限都是 1 顆,因此 10 個副本就可以衝到 10 顆 CPU..而系統上只有 3顆,這就會造成 CPU 完全不夠使用,最後導致每個應用程式都在搶 CPU 使用,如果沒有特別設定相關的 nice 值來處理,可能會造成關鍵 process 無法回應(案例中就是kubelet)。
這案例中 limit/request = 10x,作者認為這數字太大,它覺得合理的大概是 2x ~ 5x,並且最重要的是要定期去檢視系統上資源的用量, limit 要設定的合理,如果本身有很大量需求,建議還要搭配 node select, affinity/anti-affinity 讓每個 pod 最好找到適合的配置方式,然後也要避免尖峰流量到來時,系統資源被吃光甚至影響到 kubelet/kube-proxy 等底層服務的運作。
https://itnext.io/how-to-set-kubernetes-resource-requests-and-limits-a-saga-to-improve-cluster-stability-and-a7b1800ecff1