<span id="mktg5"></span>

<i id="mktg5"><meter id="mktg5"></meter></i>

        <label id="mktg5"><meter id="mktg5"></meter></label>
        最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
        問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
        當前位置: 首頁 - 科技 - 知識百科 - 正文

        對單表億級數據的簡單測試_MySQL

        來源:懂視網 責編:小采 時間:2020-11-09 19:17:42
        文檔

        對單表億級數據的簡單測試_MySQL

        對單表億級數據的簡單測試_MySQL:聲明:本文寫作皆因個人興趣,僅供學習目的,限于本人水平有限,不當之處請指正,歡迎討論。 歡迎轉載,轉載請注明出處 。本文地址:http://www.imsiren.com/archives/995本次對mysql做了單表億級數據量的壓測。表的關系簡單,只有兩個int字段,user_
        推薦度:
        導讀對單表億級數據的簡單測試_MySQL:聲明:本文寫作皆因個人興趣,僅供學習目的,限于本人水平有限,不當之處請指正,歡迎討論。 歡迎轉載,轉載請注明出處 。本文地址:http://www.imsiren.com/archives/995本次對mysql做了單表億級數據量的壓測。表的關系簡單,只有兩個int字段,user_
        聲明:本文寫作皆因個人興趣,僅供學習目的,限于本人水平有限,不當之處請指正,歡迎討論。 歡迎轉載,轉載請注明出處 。
        本文地址:http://www.imsiren.com/archives/995

        本次對mysql做了單表億級數據量的壓測。
        表的關系簡單,只有兩個int字段,user_id和company_id,且都增加了索引。
        通過python腳本,隨機向同一個表隨機插入100W、500W、1000W-1E數據,并且記錄了每次插入數據所耗時間。
        先來看下寫入數據的情況吧:
        python腳本空轉:
        空轉100W:0.14s
        空轉1000W:1.74s
        單次插入1000W條數據:295.11s
        1000W基礎上再插入1000W,輪詢,直到寫入1E數據,記錄每次插入所耗的時間。

        可以看到,隨著數據量的不斷增大,每次插入1000W條數據的時間還是比較穩定,上下浮動不大。

        我們最終關心的是單表乙級數據量下,查詢速度能有多快。

        下面是用python客戶端腳本模擬對1E條數據進行隨機查詢,隨機用的是python的隨機函數;機器資源有限,開發機是公用的,

        所以也沒太敢占用太大資源來做壓測,并發用的Python的線程模塊。

        本次查詢測試采用三種方法:

        1、單進程對數據庫執行隨機查詢1000次操作,執行100次,記錄每次時間

        2、并發1000、2000線程對數據庫進行隨機查詢1000次操作,記錄每次時間

        3、用mysql官方軟件mysqlslap 對數據庫進行操作

        第一種:

        單次查詢1000次的結果,跑100次,發現時間浮動還是比較大,這可能跟插入的數據散列情況有關,

        user_id相同的數據還是有不少,20-100之間,線上業務出現這種數據的情況不大,所以,這些數據不影響最終結果。

        第二種:并發1000線程對數據庫進行隨機1000次查詢,

        1000線程:最慢時間8s,處理能力 125/s ;

        2000線程:最慢時間10s,處理能力 100/s;

        第三種:mysqlslap進行測試

        開啟2000個線程,執行SELECT * FROM user_company_test_5000 WHERE user_id=7432查詢

        平均處理時間8.76s,每秒能處理229個查詢。

        用官方的mysqlslap進行測試,跟python腳本的測試結果偏差較大,

        猜測原因有兩個:

        1:mysqlslap 直接采用socket對Mysql進行連接,所以它除了 mysql處理時間和網絡請求時間沒有其他影響結果的操作

        2:mysqlslap只能指定sql,沒有辦法隨機查詢數據,而測試表里面的數據分散不均勻,這也是一個原因。

        mysqlslap的數據只能視為最好情況,但第二個python腳本則更接近生產環境,1000次查詢數據也是隨機查詢,

        所以第二種能作為生產環境的依據。

        再來看看批量查詢,IN 語句最多50個值

        好吧,我只開了200個線程,最慢時間93s,最快時間46s,簡直可以用慘不忍睹來講。如果是批量查詢,

        那就拆成多條語句來查吧。如果用IN ,必然會影響服務。

        結論:

        跟dba溝通過,理論上每秒能夠支持5000次的查詢量是比較正常的,但我用mysqlslap對單表100W的數據量進行了

        測試,2000個client 每秒處理能力也只有700左右,

        從第二種數據上看,當單機client達到2000時,每秒還能處理100次左右的查詢,還是不錯的。

        聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

        文檔

        對單表億級數據的簡單測試_MySQL

        對單表億級數據的簡單測試_MySQL:聲明:本文寫作皆因個人興趣,僅供學習目的,限于本人水平有限,不當之處請指正,歡迎討論。 歡迎轉載,轉載請注明出處 。本文地址:http://www.imsiren.com/archives/995本次對mysql做了單表億級數據量的壓測。表的關系簡單,只有兩個int字段,user_
        推薦度:
        標簽: 數據 簡單 測試
        • 熱門焦點

        最新推薦

        猜你喜歡

        熱門推薦

        專題
        Top
        主站蜘蛛池模板: 最新中文字幕免费视频| 免费看美女午夜大片| 日韩精品极品视频在线观看免费| 免费一级大黄特色大片| 亚洲av永久中文无码精品| 我要看免费的毛片| 亚洲欧美国产欧美色欲 | 永久免费av无码入口国语片| 久久影视综合亚洲| xxxxx做受大片视频免费| 亚洲一级特黄大片在线观看| 国产性生大片免费观看性| 亚洲av无码专区国产乱码在线观看| 免费毛片a线观看| 亚洲大尺码专区影院| 成年性生交大片免费看| 亚洲av午夜电影在线观看| 亚洲精品无码久久毛片| 中文成人久久久久影院免费观看| 亚洲人成电影福利在线播放 | 亚洲精品国偷自产在线| 狠狠热精品免费观看| 亚洲无码精品浪潮| 久9久9精品免费观看| 亚洲偷偷自拍高清| 大胆亚洲人体视频| 精品免费视在线观看| 亚洲一区二区三区乱码在线欧洲| 国产小视频免费观看| 日韩免费视频一区二区| 亚洲情A成黄在线观看动漫软件| www国产亚洲精品久久久日本| 成人性做爰aaa片免费看| 亚洲一区二区三区无码国产| 亚洲福利中文字幕在线网址| 久久国产精品免费看| 亚洲国产成人久久综合| 亚洲AV永久精品爱情岛论坛| 在线a人片天堂免费观看高清| 99精品免费视品| 亚洲天堂2017无码中文|