MySQL數據行溢出的深入理解

本篇文章給大家帶來的內容是關于mysql數據行溢出的深入理解,有一定的參考價值,有需要的朋友可以參考一下,希望對你有所幫助。

一、從常見的報錯說起

故事的開頭我們先來看一個常見的sql報錯信息:

MySQL數據行溢出的深入理解

相信對于這類報錯大家一定遇到過很多次了,特別對于OMG這種已內容生產為主要工作核心的BG,在內容線的存儲中,數據大一定是個繞不開的話題。這里的數據“大”,遠不止存儲空間占用多,其中也包括了單個(表)字段存儲多、大,數據留存時間長,數據冗余多,冷熱數據不明顯導致的體量大,訪問峰值隨著熱點變化明顯,邏輯處理復雜導致數據存儲壓力放大等等。回到這個報錯的問題上來,我們先來看一下這個表的結構:

MySQL數據行溢出的深入理解

看到這里,我相信大家會有不同的處理方式了,這里就不對各種處理方式的優劣做比較了,僅僅敘述使用頻率較高的兩種處理方式。

  • 根據報錯的指引,把兩個大的varchar(22288)改成text、blob

  • 根據業務特點,縮小varchar的存儲長度,或者按照規則拆分成多個小的vachar和char

這兩種的處理方式也各有優缺點,把字段改成text或者blob,不僅增大了數據存儲的容量,對這個字段的索引頁只能采用前綴或者全文索引了,如果業務側存儲的是json格式的數據,5.7支持json數據類型是個不錯的選擇,可以針對單個子類進行查詢和輸出。同樣如果縮小和拆分的話就比較依賴業務的場景和邏輯需求了,業務使用的邏輯上需要修改,工程量也需要評估。

二、深入探索

接著我們再來深入分析下關于限制大小“65535”的一些容易混淆的概念。

1、“65535”不是單個varchar(N)中N的最大限制,而是整個表非大字段類型的字段的bytes總合。

———————————————————————————————

Every table (regardless of storage engine) has a maximum row size of 65,535 bytes. Storage engines may place additional constraints on this limit, reducing the effective maximum row size.

———————————————————————————————

2、不同的字符集對字段可存儲的max會有影響,例如,UTF8字符需要3個字節存儲,對于VARCHAR(255)CHARACTER SET UTF8列,會占用255×3 =765的字節。故該表不能包含超過65,535/765=85這樣的列。GBK是雙字節的以此類推。

3、可變長度列在評估字段大小時還要考慮存儲列實際長度的字節數。例如,VARCHAR(255)CHARACTER SET UTF8列需要額外的兩個字節來存儲值長度信息,所以該列需要多達767個字節存儲,其實最大可以存儲65533字節,剩余兩個字節存儲長度信息。

4、BLOB、TEXT、JSON列不同于varchar、char等字段,列長度信息獨立于行長存儲,可以達到65535字節真實存儲

5、定義NULL列會降低允許的最大列數。

  • InnoDB表,NULL和NOT NULL列存儲大小是一樣

  • MyISAM表,NULL列需要額外的空間記錄其值是否為NULL。每個NULL需要一個額外的位(四舍五入到最接近的字節)。最大行長度計算如下:

row Length = 1 ?+ (sum of column lengths) ? + (number of NULL columns + delete_flag + 7)/8 + (number of variable-length columns)

  • 靜態表,delete_flag = 1,靜態表通過在該行記錄一個位來標識該行是否已被刪除。

  • 動態表,delete_flag = 0,該標記存儲在動態行首,動態表具體可以根據

6、對于InnoDB表,NULL和NOT NULL列存儲大小是一樣

7、InnoDB允許單表最多1000個列

8、varchar主鍵只支持不超過767個字節或者768/2=384個雙字節 或者767/3=255個三字節的字段 而GBK是雙字節的,UTF8是三字節的

9、不用的引擎對索引的限制有區別

  • innodb每個列的長度不能大于767 bytes;所有組成索引列的長度和不能大于3072 bytes

  • myisam 每個列的長度不能大于1000 bytes,所有組成索引列的長度和不能大于1000 bytes

三、真正的故障

下面來說下今天遇到的業務故障,線上業出現了大量的如下報錯,導致程序無法寫入數據:

MySQL數據行溢出的深入理解

按照提示和正常的思路,我們先第一反應認為業務存在如下的問題:

  • 設置的表結構中字段超過了限制

  • 某個字段插入的數據長度超過了改字段設置的max值

接著查看了業務的庫表結構,如下:

MySQL數據行溢出的深入理解

很快排除了第一個原因,因為首先業務的報錯不是在建立表的時候出現的,如果是表中非大字段之和65535,在建表的時候就會出錯,而業務是在寫入的時候才報錯的,而且通過庫表結構也能發現大量的都是mediumblob類型字段,非大字段加起來遠小于65535。

接著根據業務提供的具體SQL,appversion、datadata、elt_stamp、id這幾個非大字段,也并沒有超過限制,mediumblob類型字段最大可存儲16M,業務的數據遠遠沒有達到這個量級。按照報錯的提示把 appversion、datadata、elt_stamp、id這幾個非大字段均改成blob類型,還是無法解決。(根據之前的分析,必然不是問題的根源)。

冷靜下來后,發現其實還有個細節被忽略掉了,業務的失敗率不是100%,說明還是有成功的請求,通過對比成功和失敗的sql,發現果然數據量差異的還是mediumblob類型字段。那么現在第一個想到的就是,max_allowed_packet這個參數,是不是調小了,是的單個請求超過大小被拒絕了,查了下配置的值(如下圖),配置的大小1G,sql的數據長度遠沒有這么大,這個原因也排除了。

MySQL數據行溢出的深入理解

查到這里基本上排除了常見幾個問題,接著再看一下另一個參數的限制:innodb_page_size,這個的默認值是16K,每個page兩行數據,所以每行最大8k數據。

查看了下數據表Row_format是Compact,那么我們可以推斷問題的原因應該就是innodb默認的approach存儲格式會把每個blob字段的前864個字節存儲在page里,所以blob超過一定數量的話,單行大小就會超過8k,所以就報錯了。通過對比業務寫成功和失敗的SQL也應征了這個推論,那么現在要怎么解決這個問題?

  • 業務拆分表,大字段進行分表存儲

  • 通過解決Row_format的存儲方式解決問題

    由于業務單表的存儲條數并不大,而且業務邏輯不適合拆分,所以我們要在Row_format上來解決這個問題。

Barracuda文件格式下擁有兩種新的行記錄格式Compressed和Dynamic兩種,新的兩種格式對于存放BLOB的數據采用了完全的行溢出的方式,在數據頁中只存放20個字節的指針,實際的數據都存放在BLOB Page中。Compressed行記錄格式的另一個功能就是存儲在其中的數據會以zlib的算法進行壓縮。

相關的變更操作就相對簡單了:

1、 修改mysql全局變量

SET GLOBAL innodb_file_format=’Barracuda’;

2、平滑變更原表的屬性:

ROW_FORMAT=COMPRESSED

四、繼續學習

通過這個案例我們可以從中提煉出兩個值得深入研究一下的點:

1、關于innodb_page_size

從MySQL5.6開始,innodb_page_size可以設置Innodb數據頁為8K,4K,默認為16K。這個參數在一開始初始化時就要加入my.cnf里,如果已經創建了表,再修改,啟動MySQL會報錯。

那么在5.6的版本之前要修改這個值,怎么辦?那只能是在源碼上做點文章了,然后重新rebuild一下MySQL。

MySQL數據行溢出的深入理解

UNIV_PAGE_SIZE是數據頁大小,默認的是16K,該值是可以設置必須為2的次方。對于該值可以設置成4k、8k、16k、32K、64K。同時更改了UNIV_PAGE_SIZE后需要更改UNIV_PAGE_SIZE_SHIFT 該值是2的多少次方為UNIV_PAGE_SIZE,所以設置數據頁分別情況如下:

MySQL數據行溢出的深入理解

接著再來說一下innodb_page_size設置成不同值的對于mysql性能上的影響,測試的表含有1億條記錄,文件大小30G。

①讀寫場景(50%讀50%寫)

16K,對CPU壓力較小,平均在20%

8K,CPU壓力為30%~40%,但select吞吐量要高于16K

②讀場景(100%讀)

16K和8K差別不明顯

InnoDB Buffer Pool管理頁面本身也有代價,Page數越多,那么相同大小下,管理鏈表就越長。因此當我們的數據行本身就比較長(大塊插入),更大的頁面更有利于提升速度,因為一個頁面可以放入更多的行,每個IO寫的大小更大,可以更少的IOPS寫更多的數據。 當行長超過8K的時候,如果是16K的頁面,就會強制轉換一些字符串類型為TEXT,把字符串主體轉移到擴展頁中,會導致讀取列需要多一個IO,更大的頁面也就支持了更大的行長,64K頁面可以支持近似32K的行長而不用使用擴展頁。 但是如果是短小行長的隨機讀取和寫入,則不適合使用這么大的頁面,這會導致IO效率下降,大IO只能讀取到小部分。

2、關于Row_format

Innodb存儲引擎保存記錄,是以行的形式存放的。在InnoDB 1.0.x版本之前,InnoDB 存儲引擎提供了 Compact 和 Redundant 兩種格式來存放行記錄數據。MySQL 5.1 中的innodb_plugin 引入了新的文件格式:Barracuda,該文件格式擁有新的兩種行格式:compressed和dynamic。并且把 compact 和 redundant 合稱為Antelope。可以通過命令SHOW TABLE STATUS LIKE ‘table_name’;來查看當前表使用的行格式,其中 row_format 列表示當前所使用的行記錄結構類型。

MySQL 5.6 版本中,默認 Compact ,msyql 5.7.9 及以后版本,默認行格式由innodb_default_row_format變量決定,默認值是DYNAMIC,也可以在 create table 的時候指定ROW_FORMAT=DYNAMIC(通過這個可動態調整表的存儲格式)。如果要修改現有表的行模式為compressed或dynamic,必須先將文件格式設置成Barracuda(set global innodb_file_format=Barracuda;)。再用ALTER TABLE tablename ROW_FORMAT=COMPRESSED;去修改才能生效,否則修改無效卻無提示。

①compact

如果blob列值長度 > 768字節,那么前768字節依然在數據頁,而剩余的則放在溢出頁(off-page),如下圖:

MySQL數據行溢出的深入理解

上面講的blob或變長大字段類型包括blob、text、varchar,其中varchar列值長度大于某數N時也會存溢出頁,在latin1字符集下N值可以這樣計算:innodb的塊大小默認為16kb,由于innodb存儲引擎表為索引組織表,樹底層的葉子節點為一雙向鏈表,因此每個頁中至少應該有兩行記錄,這就決定了innodb在存儲一行數據的時候不能夠超過8k,減去其它列值所占字節數,約等于N。

②compressed或dynamic

對blob采用完全行溢出,即聚集索引記錄(數據頁)只保留20字節的指針,指向真實存放它的溢出段地址:

MySQL數據行溢出的深入理解

dynamic行格式,列存儲是否放到off-page頁,主要取決于行大小,它會把行中最長的那一列放到off-page,直到數據頁能存放下兩行。TEXT/BLOB列

compressed 物理結構上與dynamic類似,但是對表的數據行使用zlib算法進行了壓縮存儲。在long blob列類型比較多的情況下用,可以降低off-page的使用,減少存儲空間(50%左右,可參見之前“【數據庫評測報告】第三期:innodb、tokudb壓縮性能”報告中的測試結果),但要求更高的CPU,buffer pool里面可能會同時存儲數據的壓縮版和非壓縮版,所以也多占用部分內存。

最后參考了《高性能MySQL》,給出一些使用BLOB這類變長大字段類型的建議:

①大字段在InnoDB里可能浪費大量空間。例如,若存儲字段值只是比行的要求多了一個字節,也會使用整個頁面來存儲剩下的字節,浪費了頁面的大部分空間。同樣的,如果有一個值只是稍微超過了32個頁的大小,實際上就需要使用96個頁面。

②太長的值可能使得在查詢中作為WHERE條件不能使用索引,因而執行很慢。在應用WHERE條件之前,MySQL需要把所有的列讀出來,所以可能導致MySQL要求InnoDB讀取很多擴展存儲,然后檢查WHERE條件,丟棄所有不需要的數據。

③一張表里有很多大字段,最好組合起來單獨存到一個列里面。讓所有的大字段共享一個擴展存儲空間,比每個字段用自己的頁要好。

④把大字段用COMPRESS()壓縮后再存為BLOB,或者在發送到MySQL前在應用程序中進行壓縮,可以獲得顯著的空間優勢和性能收益。

⑤擴展存儲禁用了自適應哈希,因為需要完整的比較列的整個長度,才能發現是不是正確的數據。

? 版權聲明
THE END
喜歡就支持一下吧
點贊14 分享