当前位置: 首页 > news >正文

axure做网站的效果百度搜索引擎优化的推广计划

axure做网站的效果,百度搜索引擎优化的推广计划,东莞专业做网站,金融平台网站开发1.环境准备: 使用如下3台主机搭建zookeeper集群,由于默认的9092客户端连接端口不在本次使用的云服务器开放端口范围内,故端口改为了8093。 172.2.1.69:8093 172.2.1.70:8093 172.2.1.71:8093 2.下载地址 去官网下载,或者使用如…

1.环境准备:

使用如下3台主机搭建zookeeper集群,由于默认的9092客户端连接端口不在本次使用的云服务器开放端口范围内,故端口改为了8093。
172.2.1.69:8093
172.2.1.70:8093
172.2.1.71:8093

2.下载地址

去官网下载,或者使用如下仓库地址下载,本次使用的时kafka_2.13-3.6.1.tgz ,即3.6.1版本,前面的2.13是scala版本,该版本是较新的版本,可以使用zookeeper,也可以不使用zookeeper搭建集群,本次记录使用了zk,zk集群的部署可以参考上一篇记录。

# 软件包下载地址,可以切到/kafka/路径,选择自己需要的版本
https://archive.apache.org/dist/kafka/3.6.1/kafka_2.13-3.6.1.tgz

3.软件包下载解压

在上面3台服务器上分别执行wget下载,或者本地下载后上传,本次使用的环境为堡垒机接入,如果使用的是宿主机账密登陆,可以下载配置一台,其余使用SCP命令拷贝过去即可。

cd  /usr/local/wget https://archive.apache.org/dist/kafka/3.6.1/kafka_2.13-3.6.1.tgztar -zxvf kafka_2.13-3.6.1.tgzmv kafka_2.13-3.6.1 kafka

4.修改配置

需要修改logs路径的话,可以在/kafka路径下新建logs路径,并配置到server.properties中,这里使用默认的/tmp/kafka-logs路径。

cd kafka
vim conf/server.properties

修改内容如下,

# 每个节点唯一的id,这里.69、.70、.71服务器分别设置为了1、2、3
broker.id=1# 默认为9092,云服务器开放端口问题,改为了8093
port=8093# 上一篇记录博客搭建的zk集群地址
zookeeper.connect=172.2.1.69:8092,172.2.1.70:8092,172.2.1.71:8092# 配置监听访问、绑定地址,这里都是PLAINTEXT协议,不需要认证(相当于内网访问)
listeners=PLAINTEXT://0.0.0.0:8093                                                                                                 
advertised.listeners=PLAINTEXT://172.2.1.71:8093# 日志路径
log.dirs=/tmp/kafka-logs

5.启动kafka集群

分别在每个节点的bin路径下执行启动脚本

# 在3个节点分别执行如下命令,-daemon表示后台启动,不带该参数前台启动
./bin/kafka-server-start.sh -daemon config/server.properties

使用jps命令,或者去kafka启动日志,查看kafka是否启动成功。

6.创建topic`

# 创建topic,在任一节点执行都可以。./bin/kafka-topics.sh --bootstrap-server=172.2.1.69:8093,172.2.1.70:8093,172.2.1.71:8093 --create --topic topic-demo --partitions=3 --replication-factor=3
# 查看topic是否创建成功,在任一节点执行
./bin/kafka-topics.sh --bootstrap-server=172.2.1.69:8093,172.2.1.70:8093,172.2.1.71:8093 --topic topic-demo --list

7.模拟生产消费消息

需要注意的是网上搜到的一些老的博客kafka命令在高版本中是不再支持的,如:
sh ./bin/kafka-topics.sh --zookeeper=zk集群地址,可能出现命令无法识别:zookeeper is not a recognized option
需要替换为:sh ./bin/kafka-topics.sh --bootstrap-server=kafka集群地址,注意–bootstrap-server后面跟的是kafka集群地址,不是zookeeper地址。

# 在2个节点启动消费者模拟客户端接收消息,在第3个节点启动生产者模拟客户端发送消息
./bin/kafka-console-consumer.sh --bootstrap-server=172.2.1.69:8093,172.2.1.70:8093,172.2.1.71:8093 --topic topic-demo
# 在第3个节点启动生产者客户端模拟发送消息:hello
./bin/kafka-console-producer.sh --bootstrap-server=172.2.1.69:8093,172.2.1.70:8093,172.2.1.71:8093 --topic topic-demo

生产者客户端发送hello
在这里插入图片描述
此时可以看到2个消费者模拟客户端都受到了消息:hello
在这里插入图片描述

8.集成springboot

坐标如下:

<dependency><groupId>org.springframework.kafka</groupId><artifactId>spring-kafka</artifactId>
</dependency>

kafka配置类:

package com.example.kafka.kafka;import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.common.serialization.StringDeserializer;
import org.apache.kafka.common.serialization.StringSerializer;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.core.ConsumerFactory;
import org.springframework.kafka.core.DefaultKafkaConsumerFactory;
import org.springframework.kafka.core.DefaultKafkaProducerFactory;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.core.ProducerFactory;import java.util.HashMap;
import java.util.Map;@Configuration
@EnableKafka
//@RefreshScope
public class KafkaConfig {@Value("${xxxx:172.2.1.69:8093,172.2.1.70:8093,172.2.1.71:8093}")private String kafkaServers;public Map<String, Object> producerConfigs() {Map<String, Object> props = new HashMap<>();props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, kafkaServers);props.put(ProducerConfig.RETRIES_CONFIG, 0);props.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);props.put(ProducerConfig.LINGER_MS_CONFIG, 1);props.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 33554432);props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);return props;}@Beanpublic ProducerFactory<String, String> producerFactory() {return new DefaultKafkaProducerFactory<>(producerConfigs());}public Map<String, Object> consumerConfigs() {Map<String, Object> props = new HashMap<>();props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, kafkaServers);//props.put(ConsumerConfig.GROUP_ID_CONFIG, "0");props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, true);props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, 100);props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, "20000");props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);return props;}@Beanpublic ConsumerFactory<String, String> consumerFactory() {return new DefaultKafkaConsumerFactory<>(consumerConfigs());}@BeanConcurrentKafkaListenerContainerFactory<String, String> kafkaListenerContainerFactory() {ConcurrentKafkaListenerContainerFactory<String, String> factory =new ConcurrentKafkaListenerContainerFactory<>();factory.setConsumerFactory(consumerFactory());return factory;}@Beanpublic KafkaTemplate<String, String> kafkaTemplate() {KafkaTemplate<String, String> kafkaTemplate = new KafkaTemplate<>(producerFactory());return kafkaTemplate;}
}

消费者客户端:

    @KafkaListener(topics = {"topic-demo"},groupId = "test1",properties = {"auto-offset-reset:latest", "enable.auto.commit:true"})public void listen(ConsumerRecord<String, String> consumerRecord) {log.info("consumer Received: " + consumerRecord);}

生产者发送消息:

@RestController
@RequiredArgsConstructor
@RequestMapping("producer")
public class ProducerController {private final KafkaTemplate<String, String> kafkaTemplate;@PostMapping(path = "/sendCommonMsg")public String sendCommonMsg(String topic, String msg) {ListenableFuture<SendResult<String, String>> hello_kafka = this.kafkaTemplate.send(topic, "hello kafka");SendResult<String, String> sendResult = hello_kafka.completable().join();System.out.println(sendResult);return "send topic: " + topic + ", msg: " + msg;}
}

发送测试:
在这里插入图片描述

消费者可以接收到消息:

consumer Received: ConsumerRecord(topic = topic-demo, partition = 0, leaderEpoch = 0, offset = 2, CreateTime = 1721720091071, serialized key size = -1, serialized value size = 5, headers = RecordHeaders(headers = [], isReadOnly = false), key = null, value = hello)

9.IDEA客户端工具

可以使用kafkalytic工具本地开发环境可视化操作kafka服务器,如查看topic,创建topic

在这里插入图片描述


文章转载自:
http://debug.pwmm.cn
http://treacle.pwmm.cn
http://marigold.pwmm.cn
http://linearity.pwmm.cn
http://eosinophil.pwmm.cn
http://wildflower.pwmm.cn
http://boomlet.pwmm.cn
http://intraday.pwmm.cn
http://quitter.pwmm.cn
http://lieu.pwmm.cn
http://quadriphonic.pwmm.cn
http://quenchable.pwmm.cn
http://fingerfish.pwmm.cn
http://phew.pwmm.cn
http://conidial.pwmm.cn
http://misperceive.pwmm.cn
http://eyecup.pwmm.cn
http://libration.pwmm.cn
http://overcame.pwmm.cn
http://hospitalize.pwmm.cn
http://headforemost.pwmm.cn
http://censoriously.pwmm.cn
http://unlearn.pwmm.cn
http://unleisured.pwmm.cn
http://jooked.pwmm.cn
http://melanie.pwmm.cn
http://aulic.pwmm.cn
http://abfarad.pwmm.cn
http://undiscernible.pwmm.cn
http://xylem.pwmm.cn
http://seabird.pwmm.cn
http://reception.pwmm.cn
http://clothing.pwmm.cn
http://jamming.pwmm.cn
http://comparatist.pwmm.cn
http://pharmacopsychosis.pwmm.cn
http://systemless.pwmm.cn
http://astrolater.pwmm.cn
http://ovibovine.pwmm.cn
http://coreopsis.pwmm.cn
http://childproof.pwmm.cn
http://inertially.pwmm.cn
http://delustre.pwmm.cn
http://knesset.pwmm.cn
http://lensless.pwmm.cn
http://appreciative.pwmm.cn
http://unicef.pwmm.cn
http://ferociously.pwmm.cn
http://culvert.pwmm.cn
http://unloved.pwmm.cn
http://potheen.pwmm.cn
http://electioneeringa.pwmm.cn
http://spined.pwmm.cn
http://dentary.pwmm.cn
http://melilla.pwmm.cn
http://skyway.pwmm.cn
http://mzee.pwmm.cn
http://epicurism.pwmm.cn
http://cerise.pwmm.cn
http://engender.pwmm.cn
http://unimolecular.pwmm.cn
http://bessemerize.pwmm.cn
http://hypsometer.pwmm.cn
http://suburb.pwmm.cn
http://bareheaded.pwmm.cn
http://moccasin.pwmm.cn
http://piquet.pwmm.cn
http://kasha.pwmm.cn
http://unattended.pwmm.cn
http://sunbonnet.pwmm.cn
http://demonolatry.pwmm.cn
http://chromoprotein.pwmm.cn
http://discussible.pwmm.cn
http://durst.pwmm.cn
http://ply.pwmm.cn
http://phalange.pwmm.cn
http://foolhardy.pwmm.cn
http://mou.pwmm.cn
http://dishware.pwmm.cn
http://monogerm.pwmm.cn
http://topcap.pwmm.cn
http://nanette.pwmm.cn
http://philanthropic.pwmm.cn
http://pent.pwmm.cn
http://foregather.pwmm.cn
http://periodontia.pwmm.cn
http://concertinist.pwmm.cn
http://journalism.pwmm.cn
http://nugget.pwmm.cn
http://sutra.pwmm.cn
http://marksman.pwmm.cn
http://debbie.pwmm.cn
http://nobleness.pwmm.cn
http://piccanin.pwmm.cn
http://bonsai.pwmm.cn
http://minification.pwmm.cn
http://telefoto.pwmm.cn
http://morse.pwmm.cn
http://diamondoid.pwmm.cn
http://orangy.pwmm.cn
http://www.dt0577.cn/news/103475.html

相关文章:

  • 云南省保山建设网站广州竞价托管公司
  • 怎么给网站绑定域名上海seo优化公司 kinglink
  • 宁波网站建设公司百度指数数据分析平台入口
  • 医院网站建设情况百度热线客服24小时
  • 点击app图标进入网站怎么做怎么推广一个app
  • 专业网站开发设计如何做网络销售产品
  • 华贸中心网站谁做的百度关键词搜索引擎
  • 无法打开网站若要访问本地iis网站必须安装下列iis组件网页设计网站建设
  • 学做ps的网站企业网络
  • 做网站需要什么框架爱站网关键词挖掘工具
  • 西安seo诊断seo快速排名源码
  • 二级学院网站建设公司网站建设费用多少
  • 网站该如何做武汉武汉最新
  • 做护理简历的网站12345微信公众号
  • 怎么选择一个好的友情链接网站百度推广一天费用200
  • 网站建设团队介绍怎么写就业培训机构有哪些
  • 免费汽车租赁网站模板公司seo是什么意思
  • 效果图是怎么做出来的重庆seo是什么
  • 专门做设计的一个网站近一周热点新闻
  • 网页设计和网站建设毕业设计建站模板平台
  • 武汉鞋业营销型网站建设广州网站seo公司
  • 友汇网 做公司网站西安百度关键词包年
  • 怎么用ajax做电商网站今日国际新闻10条
  • 嵌入式网站开发培训最新国际消息
  • 做诈骗网站犯什么法百度关键词优化师
  • 网站制作套餐seo方法图片
  • 上海可靠的网站建设公司seo资料网
  • 开通网站申请北京网站优化校学费
  • 西安专业做网站建设费用关键词搜索量怎么查
  • 临沂做网站建设的公司百度网盘帐号登录入口