全部課程
發(fā)布時(shí)間: 2018-01-19 17:16:19
1. Kafka生產(chǎn)者Java API:
package net.togogo.kafkaproject;
import java.util.Properties;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord;
public class KafkaProducerSimple {
public static void main(String[] args) {
Properties props = new Properties();
props.put("bootstrap.servers",
"hdp08:9092,hdp09:9092,hdp10:9092");//該地址是集群的子集,用來(lái)探測(cè)集群。
props.put("acks", "all");// 記錄完整提交,最慢的但是較大可能的持久化
props.put("retries", 3);// 請(qǐng)求失敗重試的次數(shù)
props.put("batch.size", 16384);// batch的大小
props.put("linger.ms", 1);// 默認(rèn)情況即使緩沖區(qū)有剩余的空間,也會(huì)立即發(fā)送請(qǐng)求,設(shè)置一段時(shí)間用來(lái)等待從而將緩沖區(qū)填的更多,單位為毫秒,producer發(fā)送數(shù)據(jù)會(huì)延遲1ms,可以減少發(fā)送到kafka服務(wù)器的請(qǐng)求數(shù)據(jù)
props.put("buffer.memory", 33554432);// 提供給生產(chǎn)者緩沖內(nèi)存總量
props.put("key.serializer",
"org.apache.kafka.common.serialization.StringSerializer");// 序列化的方式,
// ByteArraySerializer或者StringSerializer
props.put("value.serializer",
"org.apache.kafka.common.serialization.StringSerializer");
KafkaProducer<String, String> producer = new KafkaProducer<>(props);
for (int i = 0; i < 10000; i++) {
// 三個(gè)參數(shù)分別為topic, key,value,send()是異步的,添加到緩沖區(qū)立即返回,更高效。
producer.send(new ProducerRecord<String, String>("mytopic",
"key"+i, "value"+i));
}
producer.close();
}
}
package net.togogo.kafkaproject;
import java.util.Arrays;
import java.util.Properties;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
public class KafkaConsumerSimple {
public static void main(String[] args) {
Properties props = new Properties();
props.put("bootstrap.servers",
"hdp08:9092,hdp09:9092,hdp10:9092");// 該地址是集群的子集,用來(lái)探測(cè)集群。
props.put("group.id", "test");// cousumer的分組id
props.put("enable.auto.commit", "true");// 自動(dòng)提交offsets
props.put("auto.commit.interval.ms", "1000");// 每隔1s,自動(dòng)提交offsets
props.put("session.timeout.ms", "30000");// Consumer向集群發(fā)送自己的心跳,超時(shí)則認(rèn)為Consumer已經(jīng)死了,kafka會(huì)把它的分區(qū)分配給其他進(jìn)程
props.put("key.deserializer",
"org.apache.kafka.common.serialization.StringDeserializer");// 反序列化器
props.put("value.deserializer",
"org.apache.kafka.common.serialization.StringDeserializer");
KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
consumer.subscribe(Arrays.asList("mytopic"));// 訂閱的topic,可以多個(gè)
while (true) {
ConsumerRecords<String, String> records = consumer.poll(100);
for (ConsumerRecord<String, String> record : records) {
System.out.printf("offset = %d, key = %s, value = %s",
record.offset(), record.key(), record.value());
System.out.println();
}
}
}
}
?
一、 Kafka架構(gòu)
?1. Kafka整體結(jié)構(gòu)圖
?
Producer :消息生產(chǎn)者,就是向kafka broker發(fā)消息的客戶(hù)端。
Consumer :消息消費(fèi)者,向kafka broker取消息的客戶(hù)端
Topic :可以理解為一個(gè)隊(duì)列。
Consumer Group (CG):這是kafka用來(lái)實(shí)現(xiàn)一個(gè)topic消息的廣播(發(fā)給所有的consumer)和單播(發(fā)給任意一個(gè)consumer)的手段。一個(gè)topic可以有多個(gè)CG。topic的消息會(huì)復(fù)制(不是真的復(fù)制,是概念上的)到所有的CG,但每個(gè)partion只會(huì)把消息發(fā)給該CG中的一個(gè)consumer。如果需要實(shí)現(xiàn)廣播,只要每個(gè)consumer有一個(gè)獨(dú)立的CG就可以了。要實(shí)現(xiàn)單播只要所有的consumer在同一個(gè)CG。用CG還可以將consumer進(jìn)行自由的分組而不需要多次發(fā)送消息到不同的topic。
Broker :一臺(tái)kafka服務(wù)器就是一個(gè)broker。一個(gè)集群由多個(gè)broker組成。一個(gè)broker可以容納多個(gè)topic。
Partition:為了實(shí)現(xiàn)擴(kuò)展性,一個(gè)非常大的topic可以分布到多個(gè)broker(即服務(wù)器)上,一個(gè)topic可以分為多個(gè)partition,每個(gè) partition是一個(gè)有序的隊(duì)列。partition中的每條消息都會(huì)被分配一個(gè)有序的id(offset)。kafka只保證按一個(gè)partition中的順序?qū)⑾l(fā)給consumer,不保證一個(gè)topic的整體(多個(gè)partition間)的順序。
Offset:kafka的存儲(chǔ)文件都是按照offset.kafka來(lái)命名,用offset做名字的好處是方便查找。例如你想找位于2049的位置,只要找到2048.kafka的文件即可。當(dāng)然the first offset就是00000000000.kafka
2.Consumer與topic關(guān)系?
本質(zhì)上kafka只支持Topic;
每個(gè)group中可以有多個(gè)consumer,每個(gè)consumer屬于一個(gè)consumer group;
通常情況下,一個(gè)group中會(huì)包含多個(gè)consumer,這樣不僅可以提高topic中消息的并發(fā)消費(fèi)能力,而且還能提高"故障容錯(cuò)"性,如果group中的某個(gè)consumer失效那么其消費(fèi)的partitions將會(huì)有其他consumer自動(dòng)接管。
對(duì)于Topic中的一條特定的消息,只會(huì)被訂閱此Topic的每個(gè)group中的其中一個(gè)consumer消費(fèi),此消息不會(huì)發(fā)送給一個(gè)group的多個(gè)consumer;
那么一個(gè)group中所有的consumer將會(huì)交錯(cuò)的消費(fèi)整個(gè)Topic,每個(gè)group中consumer消息消費(fèi)互相獨(dú)立,我們可以認(rèn)為一個(gè)group是一個(gè)"訂閱"者。
在kafka中,一個(gè)partition中的消息只會(huì)被group中的一個(gè)consumer消費(fèi)(同一時(shí)刻);
一個(gè)Topic中的每個(gè)partions,只會(huì)被一個(gè)"訂閱者"中的一個(gè)consumer消費(fèi),不過(guò)一個(gè)consumer可以同時(shí)消費(fèi)多個(gè)partitions中的消息。
kafka的設(shè)計(jì)原理決定,對(duì)于一個(gè)topic,同一個(gè)group中不能有多于partitions個(gè)數(shù)的consumer同時(shí)消費(fèi),否則將意味著某些consumer將無(wú)法得到消息。
kafka只能保證一個(gè)partition中的消息被某個(gè)consumer消費(fèi)時(shí)是順序的;事實(shí)上,從Topic角度來(lái)說(shuō),當(dāng)有多個(gè)partitions時(shí),消息仍不是全局有序的。
3. Kafka消息的分發(fā) Producer客戶(hù)端負(fù)責(zé)消息的分發(fā)
l kafka集群中的任何一個(gè)broker都可以向producer提供metadata信息,這些metadata中包含"集群中存活的servers列表"/"partitions leader列表"等信息;
l 當(dāng)producer獲取到metadata信息之后, producer將會(huì)和Topic下所有partition leader保持socket連接;
l 消息由producer直接通過(guò)socket發(fā)送到broker,中間不會(huì)經(jīng)過(guò)任何"路由層",事實(shí)上,消息被路由到哪個(gè)partition上由producer客戶(hù)端決定;
比如可以采用"random""key-hash""輪詢(xún)"等,如果一個(gè)topic中有多個(gè)partitions,那么在producer端實(shí)現(xiàn)"消息均衡分發(fā)"是必要的。
l 在producer端的配置文件中,開(kāi)發(fā)者可以指定partition路由的方式。
Producer消息發(fā)送的應(yīng)答機(jī)制
設(shè)置發(fā)送數(shù)據(jù)是否需要服務(wù)端的反饋,有三個(gè)值0,1,-1
0: producer不會(huì)等待broker發(fā)送ack
1: 當(dāng)leader接收到消息之后發(fā)送ack
-1: 當(dāng)所有的follower都同步消息成功后發(fā)送ack
request.required.acks=0
?
4. Consumer的負(fù)載均衡當(dāng)一個(gè)group中,有consumer加入或者離開(kāi)時(shí),會(huì)觸發(fā)partitions均衡.均衡的最終目的,是提升topic的并發(fā)消費(fèi)能力,步驟如下:
1、 假如topic1,具有如下partitions: P0,P1,P2,P3
2、 加入group中,有如下consumer: C1,C2
3、 首先根據(jù)partition索引號(hào)對(duì)partitions排序: P0,P1,P2,P3
4、 根據(jù)consumer.id排序: C0,C1
5、 計(jì)算倍數(shù): M = [P0,P1,P2,P3].size / [C0,C1].size,本例值M=2(向上取整)
6、 然后依次分配partitions: C0 = [P0,P1],C1=[P2,P3],即Ci = [P(i * M),P((i + 1) * M -1)]
5. kafka文件存儲(chǔ)機(jī)制
1) Kafka文件存儲(chǔ)基本結(jié)構(gòu)l 在Kafka文件存儲(chǔ)中,同一個(gè)topic下有多個(gè)不同partition,每個(gè)partition為一個(gè)目錄,partiton命名規(guī)則為topic名稱(chēng)+有序序號(hào),第一個(gè)partiton序號(hào)從0開(kāi)始,序號(hào)較大值為partitions數(shù)量減1。
每個(gè)partion(目錄)相當(dāng)于一個(gè)巨型文件被平均分配到多個(gè)大小相等segment(段)數(shù)據(jù)文件中。但每個(gè)段segment file消息數(shù)量不一定相等,這種特性方便old segment file快速被刪除。默認(rèn)保留7天的數(shù)據(jù)。
每個(gè)partiton只需要支持順序讀寫(xiě)就行了,segment文件生命周期由服務(wù)端配置參數(shù)決定。(什么時(shí)候創(chuàng)建,什么時(shí)候刪除)
?
數(shù)據(jù)有序的討論?
一個(gè)partition的數(shù)據(jù)是否是有序的? 間隔性有序,不連續(xù)
針對(duì)一個(gè)topic里面的數(shù)據(jù),只能做到partition內(nèi)部有序,不能做到全局有序。
特別加入消費(fèi)者的場(chǎng)景后,如何保證消費(fèi)者消費(fèi)的數(shù)據(jù)全局有序的?偽命題。
只有一種情況下才能保證全局有序?就是只有一個(gè)partition。
Segment file組成:由2大部分組成,分別為index file和data file,此2個(gè)文件一一對(duì)應(yīng),成對(duì)出現(xiàn),后綴".index"和“.log”分別表示為segment索引文件、數(shù)據(jù)文件。
?
Segment文件命名規(guī)則:partion全局的第一個(gè)segment從0開(kāi)始,后續(xù)每個(gè)segment文件名為上一個(gè)segment文件最后一條消息的offset值。數(shù)值較大為64位long大小,19位數(shù)字字符長(zhǎng)度,沒(méi)有數(shù)字用0填充。
索引文件存儲(chǔ)大量元數(shù)據(jù),數(shù)據(jù)文件存儲(chǔ)大量消息,索引文件中元數(shù)據(jù)指向?qū)?yīng)數(shù)據(jù)文件中message的物理偏移地址。
3,497:當(dāng)前l(fā)og文件中的第幾條信息,存放在磁盤(pán)上的那個(gè)地方
上述圖中索引文件存儲(chǔ)大量元數(shù)據(jù),數(shù)據(jù)文件存儲(chǔ)大量消息,索引文件中元數(shù)據(jù)指向?qū)?yīng)數(shù)據(jù)文件中message的物理偏移地址。
其中以索引文件中元數(shù)據(jù)3,497為例,依次在數(shù)據(jù)文件中表示第3個(gè)message(在全局partiton表示第368772個(gè)message)、以及該消息的物理偏移地址為497。
?
3) Kafka 查找message?
讀取offset=368776的message,需要通過(guò)下面2個(gè)步驟查找。
?
A. 查找segment file
00000000000000000000.index表示最開(kāi)始的文件,起始偏移量(offset)為0
00000000000000368769.index的消息量起始偏移量為368770 = 368769 + 1
00000000000000737337.index的起始偏移量為737338=737337 + 1
其他后續(xù)文件依次類(lèi)推。
以起始偏移量命名并排序這些文件,只要根據(jù)offset **二分查找**文件列表,就可以快速定位到具體文件。當(dāng)offset=368776時(shí)定位到00000000000000368769.index和對(duì)應(yīng)log文件。
B. 通過(guò)segment file查找message
當(dāng)offset=368776時(shí),依次定位到00000000000000368769.index的元數(shù)據(jù)物理位置和00000000000000368769.log的物理偏移地址
然后再通過(guò)00000000000000368769.log順序查找直到offset=368776為止。
6. Kafka自定義Partition
上一篇: {大數(shù)據(jù)}Hive
下一篇: {大數(shù)據(jù)}Kafka