Kafka是基于zookeeper管理的,所以要先安装zookeeper,如果是单机模式,zookeeper安装比较简单,本文就介绍一下单机如何搭建kafka,以及基本的java demo。
http://mirrors.cnnic.cn/apache/zookeeper/ 下载zookeeper
解压安装
解压tar –zxvf
修改zookeeper config 把cfg改成 zoo.cfg 单机zookeeper不需要配置
启动
bin/zkServer.sh start
下载 http://kafka.apache.org/downloads.html
解压安装
解压tar –zxvf
启动
sh kafka-server-start.sh ../config/server.properties &
没有异常就算是成功的了。
打开2个crt客户端,一个做producer,一个做consumer,在producer里面发送消息,就可以立即在consumer里面接收到。
Sh kafka-console-producer.sh --broker-list 127.0.0.1:9092 --topic test
Sh bin/kafka-console-consumer.sh --zookeeper 127.0.0.1:2181 --topic test --from-beginning
sh bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic message
对于每一个topic都会在/tmp/kafka-logs/ 生成一个文
sh kafka-topics.sh --list --zookeeper localhost:2181 test
需要依赖zookeeper和kafka的jar
org.apache.kafka kafka_2.11 0.9.0.0
com.101tec zkclient 0.7
public class KafKaProducer {//zookeeper 地址public static String zookeeperConnect = "10.101.14.230:2181";public static String topicName = "message"; //topic nameprivate static Producer createProducer() {Properties properties = new Properties();properties.put("zookeeper.connect", zookeeperConnect);// 声明zkproperties.put("serializer.class", "kafka.serializer.StringEncoder"); //配置value的序列化类properties.put("key.serializer.class", "kafka.serializer.StringEncoder"); //配置key的序列化类properties.put("metadata.broker.list", "10.101.14.230:9092");// 声明kafkareturn new Producer(new ProducerConfig(properties));}public static void main(String[] args) {try {Producer producer = createProducer();producer.send(new KeyedMessage(topicName, "message:hello"));TimeUnit.SECONDS.sleep(1);} catch (InterruptedException e) {e.printStackTrace();}}
}
注意接收消息,是客户端主动去pull,没有消息时就会阻塞
public class KafkaConsumer {public static String zookeeperConnect = "10.101.14.230:2181";private final ConsumerConnector consumer;private KafkaConsumer() {Properties props = new Properties();props.put("zookeeper.connect", zookeeperConnect);//声明zkprops.put("group.id", "jd-group2"); //group 代表一个消费组props.put("zookeeper.session.timeout.ms", "4000"); //zk连接超时props.put("zookeeper.sync.time.ms", "200");props.put("auto.commit.interval.ms", "1000");props.put("auto.offset.reset", "smallest");props.put("serializer.class", "kafka.serializer.StringEncoder");//序列化类ConsumerConfig config = new ConsumerConfig(props);consumer = kafka.consumer.Consumer.createJavaConsumerConnector(config);}void consume() {Map topicCountMap = new HashMap();topicCountMap.put(KafKaProducer.topicName, new Integer(1)); StringDecoder keyDecoder = new StringDecoder(new VerifiableProperties());StringDecoder valueDecoder = new StringDecoder(new VerifiableProperties());Map>> consumerMap =consumer.createMessageStreams(topicCountMap,keyDecoder,valueDecoder);KafkaStream stream = consumerMap.get(KafKaProducer.topicName).get(0);ConsumerIterator it = stream.iterator();while (it.hasNext()){//该地方没有消息时会阻塞System.out.printf("接受到信息:");System.out.println(it.next().message());}}public static void main(String[] args) {//更好的方法是启动一个线程new KafkaConsumer().consume();}
}
可以看到结果,只要新建一个group,都会把历史消息也接受到
用java 发送的遇到了这样的一个问题,网上搜了很久,看到说只要是在服务器上安装都有这样的问题,本地的服务就没有问题,按照帖子的方法修改kafka服务器的host.name也没解决。后来在使用hbase的时候,发现也是链接不上,然后 Debug hbase的时候发现,连接zookeeper里面有这样一段代码。
InetSocketAddress remoteAddr=new InetSocketAddress("e010101014230.zmf",37556);
if(remoteAddr.isUnresolved()){ // 表示链接不上。System.out.print("isUnresolved");
}else{System.out.print("resolved");
}
properties.put("zookeeper.connect",” 10.101.14.230:2181”);// 声明zk
properties.put("zookeeper.connect",” e010101014230.zmf:2181”);//机器名称
我就感觉zookeeper 的作用在hbase 和 kafka 是类似的,所以两个应该是同一个问题,果然debug了一遍就解决了。不管你在开始设置zookeeper地址的时候是用ip地址,还是机器名称,到了InetSocketAddress这里他都会转换成机器名称,所以就链接不上。解决办法就是:在hosts文件里加上 10.101.14.230 e010101014230.zmf
kafka原理中最重要的一点是,他的消息推送,是消费者主动pull的,这样实现起来相对简单,而且还有个好处就是,消费者按需按能力消费,消费服务器不会有积压问题。
一台kafka服务器就是一个broker。一个集群由多个broker组成。一个broker可以容纳多个topic。
就是分块的意思,一个topic可以分为多个 partition,可以分布到不同的机子上。同一个topic的partition在一台机子上只能有一个。
Partition的多个备份
话题,队列,消费
Producer 客户端通过zookeeper 获取到所有broker,可以动态更新
Producer直接通过socket发送消息到broker
消息被路由到哪个partition上,有producer客户端决定
Consumer与topic关系以及机制
Consumer是主动pull topic,没有消息时会阻塞。
每个consumer属于一个consumer group,对于同一条消息一个group只接收到一次。
一个group 有多个consumer,那么topic就会负载均衡的发送到每个consumer里面去。
如果所有的consumer都是属于不同的group,那所有的人都会接收到消息
Producer端使用zookeeper用来"发现"broker列表, 以及和Topic下每个partition leader建立socket连接并发送消息.(如果partition失效了,就接收到消息)
2) Broker端使用zookeeper用来注册broker信息,已经监测partition leader存活性.
这个教程比较简单,适合刚刚使用过消息队列,还不了解其原理的人看看。也提供了简单的java demo,对理解复杂的notify 框架还是挺有帮助的。
推荐2篇比较好的文章:
[1] http://blog.csdn.net/derekjiang/article/details/9053863/
[2] http://blog.csdn.net/hmsiwtv/article/details/46960053