Kafka是使用scala开发,支持多语言客户端(java、go等)
最开始是由LinkedIn开发,之后成为Apache的顶级项目。
是一个分布式、分区化、可扩展、高可靠、可复制提交的日志服务。
而且scale out :无需停机即可扩展机器
持久化是通过将数据持久化到磁盘以及replication防止数据丢失。
Kafka的特点:
是分布式,其所有的构件borker(服务器集群)、producer(消息生产)、consumer(消息消费者)都可以是分布式的。
在消息的生产者可以用一个标识topic来区别,可进行分区,每一个分区都是一个顺序、不可变的消息队列,并且可以持续的添加。
常用的场景:监控、消息队列、站点的用户活动追踪、流处理、日志聚合、持久化日志
Kafka中包含以下基础概念:
选择partition的原则:
如果topic有多个partition,pruducer 要怎么知道把该数据发往哪一个partition呢
安装Kafka
kafka环境基于zookeeper,zookeeper环境基于JAVA-JDK。需要安装Java-JDK
请自行安装:配置Java环境变量
下载地址:http://kafka.apache.org/downloads 下载kafka_2.12-2.3.1.tgz。
将下载好的压缩包解压到本地即可。
配置
1.打开config目录下的server.properties文件
2.修改log.dirs=E:\\kafkalogs
3.打开config目录下的zookeeper.properties文件
4.修改dataDir=E:\\kafka\\zookeeper
需要以管理员的身份启动。
在Kafka目录(F:\kafka\kafka_2.12-3.2.1)
先执行:bin\windows\zookeeper-server-start.bat config\zookeeper.properties
再执行:bin\windows\kafka-server-start.bat config\server.properties
两个服务都成功则不关闭命令页面的
.\bin\windows\kafka-console-producer.bat –broker-list localhost:9092 –topic test
.\bin\windows\kafka-console-consumer.bat –bootstrap-server localhost:9092 –topic test –from-beginning
go 操作Kafka
Go语言中连接kafka使用第三方库: github.com/Shopify/sarama。
go get github.com/Shopify/sarama
连接Kafka进行生产者和消费者,并实现发送短信或指定的内容(producer.go的sarama.StringEncoder(“指定内容”))
consumer.go
package main
import (
"fmt"
"github.com/Shopify/sarama"
"sync"
)
var wg sync.WaitGroup
//连接kafka消费消息
func main() {
consumer, err := sarama.NewConsumer([]string{"127.0.0.1:9092"}, nil)
if err != nil {
fmt.Printf("fail to start consumer, err:%v\n", err)
return
}
// 根据topic获取所有的分区列表
partitionList, err := consumer.Partitions("web_log") // 根据topic取到所有的分区
if err != nil {
fmt.Printf("根据topic获取所有的分区列表失败:err%v\n", err)
return
}
fmt.Println(partitionList)
for partition := range partitionList { // 遍历所有的分区
// 针对每个分区创建一个对应的分区消费者
pc, err := consumer.ConsumePartition("web_log", int32(partition), sarama.OffsetNewest)
if err != nil {
fmt.Printf("消费者消费指定分区失败:partition(分区) %d,err:%v\n", partition, err)
return
}
defer pc.AsyncClose()
wg.Add(1)
// 异步从每个分区消费信息
go func(sarama.PartitionConsumer) {
for msg := range pc.Messages() {
fmt.Printf("Partition:%d Offset:%d Key:%v Value:%s", msg.Partition, msg.Offset, msg.Key, msg.Value)
}
}(pc)
}
wg.Wait()
}
producer.go
//连接kafka发送消息
// 基于sarama第三方库开发的kafka producer
func main() {
config := sarama.NewConfig()
config.Producer.RequiredAcks = sarama.WaitForAll // 发送完数据需要leader和follow都确认
config.Producer.Partitioner = sarama.NewRandomPartitioner // 新选出一个partition
config.Producer.Return.Successes = true // 成功交付的消息将在success channel返回
// 构造一个消息
msg := &sarama.ProducerMessage{}
msg.Topic = "web_log"
msg.Value = sarama.StringEncoder("【柠檬地拥抱】您正在注册账号,验证码是:666666,五分钟内有效,请及时使用哦。")
// 连接kafka
client, err := sarama.NewSyncProducer([]string{"127.0.0.1:9092"}, config)
if err != nil {
fmt.Println("创建生产者失败, err:", err)
return
}
defer client.Close()
// 发送消息
pid, offset, err := client.SendMessage(msg)
if err != nil {
fmt.Println("send msg failed, err:", err)
return
}
fmt.Printf("pid:%v offset:%v\n", pid, offset)
}