springboot是一个在javaee开发中非常常用的组件。可以用于kafka的生产者,也可以用于kafka的消费者
# 指定kafka的地址
spring.kafka.bootstrap-
servers=hadoop101:9092,hadoop102:9092,hadoop103:9092
# 指定key和value的序列化器
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
# 连接kafka集群
spring.kafka.bootstrap-servers=hadoop101:9092,hadoop102:9092
# key value的序列化
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
controller
package com.thenema.springbootkafka.controller;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
/**
* @author 29467
* @date 2022/10/19 16:45
*/
@RestController
public class ProducerController {
@Autowired
KafkaTemplate<String,String> kafka;
@RequestMapping("/thenema")
public String data(String msg){
kafka.send("first", msg);
return "ok";
}
}
在kafka启动消费者
bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic first
即可消费到数据
consumer
package com.thenema.springbootkafka.controller;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.annotation.KafkaListener;
/**
* @author 29467
* @date 2022/10/19 16:57
*/
@Configuration
public class KafkaConsumer {
@KafkaListener(topics = "first")
public void consumerTopic(String msg){
System.out.println("收到消息:" + msg);
}
}
application.properties
# 连接kafka集群
# key value的反序列化
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
# 消费者组id
spring.kafka.consumer.group-id=I am group id
100万日活,每人每天100条日志,每天总共的日志条数是100万 * 100条=1亿条。
1亿/24小时/60分/60秒=1150条/每秒钟。每条日志大小:0.5k - 2k(取1k)。
1150条/每秒钟 * 1k 1m/s
高峰期每秒钟:1150条 * 20倍=23000条
每秒多少数据量:20MB/s
服务器台数 = 2 * (生产者峰值生产速率【m/s】 * 副本数 / 100)+ 1
kafka按照顺序读写,机械硬盘和固态硬盘顺序读写差不多
1亿条 * 1k = 100g
100g * 2个副本 * 3天 / 0.7(30%损耗) = 1t
建议三台服务器总的磁盘大小 大于1t
kafka 内存 = 堆内存 (kafka 内部配置) + 页缓存(服务器内存)
堆内存:10-15g
设置堆内存:export KAFKA HEAP_ OPTS="-Xmx10G"
查看kafka进程:jps查看进程号
查看kafka的GC情况:使用jstat -gc xxx ls 10,查看YGC
根据kafka进程号,查看kafka的堆内存:jmpa -heap xxx
页缓存是linux服务器是内存,我们只需要保证一个segment(1g)中25%的数据在内存中就好,分区数 * 1g * 25% / 3 = xg
那么一台服务器等于10g + xg
num.io.threads = 8 负责写磁盘的线程数,整个参数值要占总核数的50%
num.replica.fetchers = 1 副本拉取线程数, 这个参数占总核数的50%的1/3
num.netwrok.thread = 3 数据传输线程数,这个参数占总核数的50%的2/3
建议32个 cpu core
网络带宽 = 峰值吞吐量 约等于 20mb/s 选择千兆网卡即可
100Mbps 的单位是比特 10M/s的单位是字节 1byte = 8bit 100Mbps = 12.5M/s
一般的百兆网卡(100Mbps) 千兆网卡(1000Mbps) 万兆网卡(10000Mbps)
在生产环境中,如果某个kafka节点挂掉,处理方法如下
用kafka官方自带的脚本,对kafka进行压测。
- 生产者压测:kafka-producer-perf-test.sh
- 消费者压测:kafka-consumer-perf-test.sh
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --create --replication-factor 3 --partitions 3 --topic test
bin/kafka-producer-perf-test.sh --topic test --record-size 1024 --num-records 1000000 --throughput 10000 bootstrap.servers=hadoop101:9092, hadoop102:9092, hadoop103:9092 batch.size=16384 linger.ms=0
3. 调整batch.size大小,batch.size默认值是16k,本次实验将batch.size设置为32k
bin/kafka-producer-perf-test.sh --topic test --record-size 1024 --num-records 1000000 --throughput 10000 bootstrap.servers=hadoop101:9092, hadoop102:9092, hadoop103:9092 batch.size=32648 linger.ms=0
bin/kafka-producer-perf-test.sh --topic test --record-size 1024 --num-records 1000000 --throughput 10000 bootstrap.servers=hadoop101:9092, hadoop102:9092, hadoop103:9092 batch.size=16384 linger.ms=50
bin/kafka-producer-perf-test.sh --topic test --record-size 1024 --num-records 1000000 --throughput 10000 bootstrap.servers=hadoop101:9092, hadoop102:9092, hadoop103:9092 batch.size=16384 linger.ms=50 conpression.type=snappy
压缩方式设置为zstd
bin/kafka-producer-perf-test.sh --topic test --record-size 1024 --num-records 1000000 --throughput 10000 bootstrap.servers=hadoop101:9092, hadoop102:9092, hadoop103:9092 batch.size=16384 linger.ms=50 conpression.type=zstd
gzip
bin/kafka-producer-perf-test.sh --topic test --record-size 1024 --num-records 1000000 --throughput 10000 bootstrap.servers=hadoop101:9092, hadoop102:9092, hadoop103:9092 batch.size=16384 linger.ms=50 conpression.type=gzip
lz4
bin/kafka-producer-perf-test.sh --topic test --record-size 1024 --num-records 1000000 --throughput 10000 bootstrap.servers=hadoop101:9092, hadoop102:9092, hadoop103:9092 batch.size=16384 linger.ms=50 conpression.type=lz4
bin/kafka-producer-perf-test.sh --topic test --record-size 1024 --num-records 1000000 --throughput 10000 bootstrap.servers=hadoop101:9092, hadoop102:9092, hadoop103:9092 batch.size=16384 linger.ms=50 buffer.memory=67108864
max.poll.records=500
bin/kafka-consumer-perf-test.sh --bootstrap-server hadoop101:9092,hadoop102:9092,hadoop103:9092 --topic test --messages1000000 --consumer.config config/consumer.propertiese
3. 一次拉取条数为2000
max.poll.records=500
fetch.max.bytes=104857600