一、kafka的存儲機制
kafka通過topic來分主題存放數(shù)據(jù),主題內有分區(qū),分區(qū)可以有多個副本,分區(qū)的內部還細分為若干個segment。
所謂的分區(qū)其實就是在kafka對應存儲目錄下創(chuàng)建的文件夾,文件夾的名字是主題名加上分區(qū)編號,編號從0開始。
1、segment
所謂的segment其實就是在分區(qū)對應的文件夾下產(chǎn)生的文件。
一個分區(qū)會被劃分成大小相等的若干segment,這樣一方面保證了分區(qū)的數(shù)據(jù)被劃分到多個文件中保證不會產(chǎn)生體積過大的文件;另一方面可以基于這些segment文件進行歷史數(shù)據(jù)的刪除,提高效率。
一個segment又由一個.log和一個.index文件組成。
1..log
.log文件為數(shù)據(jù)文件用來存放數(shù)據(jù)分段數(shù)據(jù)。
2..index
在.index文件中,保存了對對應.log文件的索引信息,通過查找.index文件可以獲知每個存儲在當前segment中的offset在.log文件中的開始位置,而每條日志有其固定格式,保存了包括offset編號、日志長度、key的長度等相關信息,通過這個固定格式中的數(shù)據(jù)可以確定出當前offset的結束位置,從而對數(shù)據(jù)進行讀取。
3.命名規(guī)則
這兩個文件的命名規(guī)則為:
partition全局的第一個segment從0開始,后續(xù)每個segment文件名為上一個segment文件最后一條消息的offset值,數(shù)值大小為64位,20位數(shù)字字符長度,沒有數(shù)字用0填充。
2、讀取數(shù)據(jù)
開始讀取指定分區(qū)中某個offset對應的數(shù)據(jù)時,先根據(jù)offset和當前分區(qū)的所有segment的名稱做比較,確定出數(shù)據(jù)在哪個segment中,再查找該segment的索引文件,確定當前offset在數(shù)據(jù)文件中的開始位置,最后從該位置開始讀取數(shù)據(jù)文件,在根據(jù)數(shù)據(jù)格式判斷結果,獲取完整數(shù)據(jù)。
二、可靠性保證
1、AR
在Kafka中維護了一個AR列表,包括所有的分區(qū)的副本。AR又分為ISR和OSR。
AR = ISR + OSR。
AR、ISR、OSR、LEO、HW這些信息都被保存在Zookeeper中。
1.ISR
ISR中的副本都要同步leader中的數(shù)據(jù),只有都同步完成了數(shù)據(jù)才認為是成功提交了,成功提交之后才能供外界訪問。
在這個同步的過程中,數(shù)據(jù)即使已經(jīng)寫入也不能被外界訪問,這個過程是通過LEO-HW機制來實現(xiàn)的。
2.OSR
OSR內的副本是否同步了leader的數(shù)據(jù),不影響數(shù)據(jù)的提交,OSR內的follower盡力的去同步leader,可能數(shù)據(jù)版本會落后。
最開始所有的副本都在ISR中,在kafka工作的過程中,如果某個副本同步速度慢于replica.lag.time.max.ms指定的閾值,則被踢出ISR存入OSR,如果后續(xù)速度恢復可以回到ISR中。
3.LEO
LogEndOffset:分區(qū)的最新的數(shù)據(jù)的offset,當數(shù)據(jù)寫入leader后,LEO就立即執(zhí)行該最新數(shù)據(jù)。相當于最新數(shù)據(jù)標識位。
4.HW
HighWatermark:只有寫入的數(shù)據(jù)被同步到所有的ISR中的副本后,數(shù)據(jù)才認為已提交,HW更新到該位置,HW之前的數(shù)據(jù)才可以被消費者訪問,保證沒有同步完成的數(shù)據(jù)不會被消費者訪問到。相當于所有副本同步數(shù)據(jù)標識位。
在leader宕機后,只能從ISR列表中選取新的leader,無論ISR中哪個副本被選為新的leader,它都知道HW之前的數(shù)據(jù),可以保證在切換了leader后,消費者可以繼續(xù)看到HW之前已經(jīng)提交的數(shù)據(jù)。
所以LEO代表已經(jīng)寫入的最新數(shù)據(jù)位置,而HW表示已經(jīng)同步完成的數(shù)據(jù),只有HW之前的數(shù)據(jù)才能被外界訪問。
5.HW截斷機制
如果leader宕機,選出了新的leader,而新的leader并不能保證已經(jīng)完全同步了之前l(fā)eader的所有數(shù)據(jù),只能保證HW之前的數(shù)據(jù)是同步過的,此時所有的follower都要將數(shù)據(jù)截斷到HW的位置,再和新的leader同步數(shù)據(jù),來保證數(shù)據(jù)一致。
當宕機的leader恢復,發(fā)現(xiàn)新的leader中的數(shù)據(jù)和自己持有的數(shù)據(jù)不一致,此時宕機的leader會將自己的數(shù)據(jù)截斷到宕機之前的hw位置,然后同步新leader的數(shù)據(jù)。宕機的leader活過來也像follower一樣同步數(shù)據(jù),來保證數(shù)據(jù)的一致性。
2、生產(chǎn)者可靠性級別
通過以上的講解,已經(jīng)可以保證kafka集群內部的可靠性,但是在生產(chǎn)者向kafka集群發(fā)送時,數(shù)據(jù)經(jīng)過網(wǎng)絡傳輸,也是不可靠的,可能因為網(wǎng)絡延遲、閃斷等原因造成數(shù)據(jù)的丟失。
kafka為生產(chǎn)者提供了如下的三種可靠性級別,通過不同策略保證不同的可靠性保障。
其實此策略配置的就是leader將成功接收消息信息響應給客戶端的時機。
通過request.required.acks參數(shù)配置:
1:生產(chǎn)者發(fā)送數(shù)據(jù)給leader,leader收到數(shù)據(jù)后發(fā)送成功信息,生產(chǎn)者收到后認為發(fā)送數(shù)據(jù)成功,如果一直收不到成功消息,則生產(chǎn)者認為發(fā)送數(shù)據(jù)失敗會自動重發(fā)數(shù)據(jù)。
當leader宕機時,可能丟失數(shù)據(jù)。
0:生產(chǎn)者不停向leader發(fā)送數(shù)據(jù),而不需要leader反饋成功消息。
這種模式效率最高,可靠性最低。可能在發(fā)送過程中丟失數(shù)據(jù),也可能在leader宕機時丟失數(shù)據(jù)。
-1:生產(chǎn)者發(fā)送數(shù)據(jù)給leader,leader收到數(shù)據(jù)后要等到ISR列表中的所有副本都同步數(shù)據(jù)完成后,才向生產(chǎn)者發(fā)送成功消息,如果一只收不到成功消息,則認為發(fā)送數(shù)據(jù)失敗會自動重發(fā)數(shù)據(jù)。
這種模式下可靠性很高,但是當ISR列表中只剩下leader時,當leader宕機讓然有可能丟數(shù)據(jù)。
此時可以配置min.insync.replicas指定要求觀察ISR中至少要有指定數(shù)量的副本,默認該值為1,需要改為大于等于2的值
這樣當生產(chǎn)者發(fā)送數(shù)據(jù)給leader但是發(fā)現(xiàn)ISR中只有l(wèi)eader自己時,會收到異常表明數(shù)據(jù)寫入失敗,此時無法寫入數(shù)據(jù),保證了數(shù)據(jù)絕對不丟。
雖然不丟但是可能會產(chǎn)生冗余數(shù)據(jù),例如生產(chǎn)者發(fā)送數(shù)據(jù)給leader,leader同步數(shù)據(jù)給ISR中的follower,同步到一半leader宕機,此時選出新的leader,可能具有部分此次提交的數(shù)據(jù),而生產(chǎn)者收到失敗消息重發(fā)數(shù)據(jù),新的leader接受數(shù)據(jù)則數(shù)據(jù)重復了。
3、leader選舉
當leader宕機時會選擇ISR中的一個follower成為新的leader,如果ISR中的所有副本都宕機,怎么辦?
有如下配置可以解決此問題:
unclean.leader.election.enable=false
策略1:必須等待ISR列表中的副本活過來才選擇其成為leader繼續(xù)工作。
unclean.leader.election.enable=true
策略2:選擇任何一個活過來的副本,成為leader繼續(xù)工作,此follower可能不在ISR中。
策略1,可靠性有保證,但是可用性低,只有最后掛了leader活過來kafka才能恢復。
策略2,可用性高,可靠性沒有保證,任何一個副本活過來就可以繼續(xù)工作,但是有可能存在數(shù)據(jù)不一致的情況。
4、kafka可靠性的保證
At most once:消息可能會丟,但絕不會重復傳輸。
At least once:消息絕不會丟,但可能會重復傳輸。
Exactly once:每條消息肯定會被傳輸一次且僅傳輸一次。
kafka最多保證At least once,可以保證不丟,但是可能會重復,為了解決重復需要引入唯一標識和去重機制,kafka提供了GUID實現(xiàn)了唯一標識,但是并沒有提供自帶的去重機制,需要開發(fā)人員基于業(yè)務規(guī)則自己去重。
評論