当前位置: 首页 > news >正文

美食网站建设服务策划书seo接单平台

美食网站建设服务策划书,seo接单平台,产品推广ppt范例,做游戏出租的网站好Storm集成Kafka 一、整合说明二、写入数据到Kafka三、从Kafka中读取数据一、整合说明 Storm 官方对 Kafka 的整合分为两个版本,官方说明文档分别如下: Storm Kafka Integration : 主要是针对 0.8.x 版本的 Kafka 提供整合支持;Storm Kafka …

Storm集成Kafka

一、整合说明

Storm 官方对 Kafka 的整合分为两个版本,官方说明文档分别如下:

  • Storm Kafka Integration : 主要是针对 0.8.x 版本的 Kafka 提供整合支持;
  • Storm Kafka Integration (0.10.x+) : 包含 Kafka 新版本的 consumer API,主要对 Kafka 0.10.x + 提供整合支持。

这里我服务端安装的 Kafka 版本为 2.2.0(Released Mar 22, 2019) ,按照官方 0.10.x+ 的整合文档进行整合,不适用于 0.8.x 版本的 Kafka。

二、写入数据到Kafka

2.1 项目结构

在这里插入图片描述

2.2 项目主要依赖

<properties><storm.version>1.2.2</storm.version><kafka.version>2.2.0</kafka.version>
</properties><dependencies><dependency><groupId>org.apache.storm</groupId><artifactId>storm-core</artifactId><version>${storm.version}</version></dependency><dependency><groupId>org.apache.storm</groupId><artifactId>storm-kafka-client</artifactId><version>${storm.version}</version></dependency><dependency><groupId>org.apache.kafka</groupId><artifactId>kafka-clients</artifactId><version>${kafka.version}</version></dependency>
</dependencies>

2.3 DataSourceSpout

/*** 产生词频样本的数据源*/
public class DataSourceSpout extends BaseRichSpout {private List<String> list = Arrays.asList("Spark", "Hadoop", "HBase", "Storm", "Flink", "Hive");private SpoutOutputCollector spoutOutputCollector;@Overridepublic void open(Map map, TopologyContext topologyContext, SpoutOutputCollector spoutOutputCollector) {this.spoutOutputCollector = spoutOutputCollector;}@Overridepublic void nextTuple() {// 模拟产生数据String lineData = productData();spoutOutputCollector.emit(new Values(lineData));Utils.sleep(1000);}@Overridepublic void declareOutputFields(OutputFieldsDeclarer outputFieldsDeclarer) {outputFieldsDeclarer.declare(new Fields("line"));}/*** 模拟数据*/private String productData() {Collections.shuffle(list);Random random = new Random();int endIndex = random.nextInt(list.size()) % (list.size()) + 1;return StringUtils.join(list.toArray(), "\t", 0, endIndex);}}

产生的模拟数据格式如下:

Spark	HBase
Hive	Flink	Storm	Hadoop	HBase	Spark
Flink
HBase	Storm
HBase	Hadoop	Hive	Flink
HBase	Flink	Hive	Storm
Hive	Flink	Hadoop
HBase	Hive
Hadoop	Spark	HBase	Storm

2.4 WritingToKafkaApp

/*** 写入数据到 Kafka 中*/
public class WritingToKafkaApp {private static final String BOOTSTRAP_SERVERS = "hadoop001:9092";private static final String TOPIC_NAME = "storm-topic";public static void main(String[] args) {TopologyBuilder builder = new TopologyBuilder();// 定义 Kafka 生产者属性Properties props = new Properties();/** 指定 broker 的地址清单,清单里不需要包含所有的 broker 地址,生产者会从给定的 broker 里查找其他 broker 的信息。* 不过建议至少要提供两个 broker 的信息作为容错。*/props.put("bootstrap.servers", BOOTSTRAP_SERVERS);/** acks 参数指定了必须要有多少个分区副本收到消息,生产者才会认为消息写入是成功的。* acks=0 : 生产者在成功写入消息之前不会等待任何来自服务器的响应。* acks=1 : 只要集群的首领节点收到消息,生产者就会收到一个来自服务器成功响应。* acks=all : 只有当所有参与复制的节点全部收到消息时,生产者才会收到一个来自服务器的成功响应。*/props.put("acks", "1");props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");KafkaBolt bolt = new KafkaBolt<String, String>().withProducerProperties(props).withTopicSelector(new DefaultTopicSelector(TOPIC_NAME)).withTupleToKafkaMapper(new FieldNameBasedTupleToKafkaMapper<>());builder.setSpout("sourceSpout", new DataSourceSpout(), 1);builder.setBolt("kafkaBolt", bolt, 1).shuffleGrouping("sourceSpout");if (args.length > 0 && args[0].equals("cluster")) {try {StormSubmitter.submitTopology("ClusterWritingToKafkaApp", new Config(), builder.createTopology());} catch (AlreadyAliveException | InvalidTopologyException | AuthorizationException e) {e.printStackTrace();}} else {LocalCluster cluster = new LocalCluster();cluster.submitTopology("LocalWritingToKafkaApp",new Config(), builder.createTopology());}}
}

2.5 测试准备工作

进行测试前需要启动 Kakfa:

1. 启动Kakfa

Kafka 的运行依赖于 zookeeper,需要预先启动,可以启动 Kafka 内置的 zookeeper,也可以启动自己安装的:

# zookeeper启动命令
bin/zkServer.sh start# 内置zookeeper启动命令
bin/zookeeper-server-start.sh config/zookeeper.properties

启动单节点 kafka 用于测试:

# bin/kafka-server-start.sh config/server.properties

2. 创建topic

# 创建用于测试主题
bin/kafka-topics.sh --create --bootstrap-server hadoop001:9092 --replication-factor 1 --partitions 1 --topic storm-topic# 查看所有主题bin/kafka-topics.sh --list --bootstrap-server hadoop001:9092

3. 启动消费者

启动一个消费者用于观察写入情况,启动命令如下:

# bin/kafka-console-consumer.sh --bootstrap-server hadoop001:9092 --topic storm-topic --from-beginning

2.6 测试

可以用直接使用本地模式运行,也可以打包后提交到服务器集群运行。本仓库提供的源码默认采用 maven-shade-plugin 进行打包,打包命令如下:

# mvn clean package -D maven.test.skip=true

启动后,消费者监听情况如下:

在这里插入图片描述

三、从Kafka中读取数据

3.1 项目结构

在这里插入图片描述

3.2 ReadingFromKafkaApp

/*** 从 Kafka 中读取数据*/
public class ReadingFromKafkaApp {private static final String BOOTSTRAP_SERVERS = "hadoop001:9092";private static final String TOPIC_NAME = "storm-topic";public static void main(String[] args) {final TopologyBuilder builder = new TopologyBuilder();builder.setSpout("kafka_spout", new KafkaSpout<>(getKafkaSpoutConfig(BOOTSTRAP_SERVERS, TOPIC_NAME)), 1);builder.setBolt("bolt", new LogConsoleBolt()).shuffleGrouping("kafka_spout");// 如果外部传参 cluster 则代表线上环境启动,否则代表本地启动if (args.length > 0 && args[0].equals("cluster")) {try {StormSubmitter.submitTopology("ClusterReadingFromKafkaApp", new Config(), builder.createTopology());} catch (AlreadyAliveException | InvalidTopologyException | AuthorizationException e) {e.printStackTrace();}} else {LocalCluster cluster = new LocalCluster();cluster.submitTopology("LocalReadingFromKafkaApp",new Config(), builder.createTopology());}}private static KafkaSpoutConfig<String, String> getKafkaSpoutConfig(String bootstrapServers, String topic) {return KafkaSpoutConfig.builder(bootstrapServers, topic)// 除了分组 ID,以下配置都是可选的。分组 ID 必须指定,否则会抛出 InvalidGroupIdException 异常.setProp(ConsumerConfig.GROUP_ID_CONFIG, "kafkaSpoutTestGroup")// 定义重试策略.setRetry(getRetryService())// 定时提交偏移量的时间间隔,默认是 15s.setOffsetCommitPeriodMs(10_000).build();}// 定义重试策略private static KafkaSpoutRetryService getRetryService() {return new KafkaSpoutRetryExponentialBackoff(TimeInterval.microSeconds(500),TimeInterval.milliSeconds(2), Integer.MAX_VALUE, TimeInterval.seconds(10));}
}

3.3 LogConsoleBolt

/*** 打印从 Kafka 中获取的数据*/
public class LogConsoleBolt extends BaseRichBolt {private OutputCollector collector;public void prepare(Map stormConf, TopologyContext context, OutputCollector collector) {this.collector=collector;}public void execute(Tuple input) {try {String value = input.getStringByField("value");System.out.println("received from kafka : "+ value);// 必须 ack,否则会重复消费 kafka 中的消息collector.ack(input);}catch (Exception e){e.printStackTrace();collector.fail(input);}}public void declareOutputFields(OutputFieldsDeclarer declarer) {}
}

这里从 value 字段中获取 kafka 输出的值数据。

在开发中,我们可以通过继承 RecordTranslator 接口定义了 Kafka 中 Record 与输出流之间的映射关系,可以在构建 KafkaSpoutConfig 的时候通过构造器或者 setRecordTranslator() 方法传入,并最后传递给具体的 KafkaSpout

默认情况下使用内置的 DefaultRecordTranslator,其源码如下,FIELDS 中 定义了 tuple 中所有可用的字段:主题,分区,偏移量,消息键,值。

public class DefaultRecordTranslator<K, V> implements RecordTranslator<K, V> {private static final long serialVersionUID = -5782462870112305750L;public static final Fields FIELDS = new Fields("topic", "partition", "offset", "key", "value");@Overridepublic List<Object> apply(ConsumerRecord<K, V> record) {return new Values(record.topic(),record.partition(),record.offset(),record.key(),record.value());}@Overridepublic Fields getFieldsFor(String stream) {return FIELDS;}@Overridepublic List<String> streams() {return DEFAULT_STREAM;}
}

3.4 启动测试

这里启动一个生产者用于发送测试数据,启动命令如下:

# bin/kafka-console-producer.sh --broker-list hadoop001:9092 --topic storm-topic

在这里插入图片描述

本地运行的项目接收到从 Kafka 发送过来的数据:

在这里插入图片描述


用例源码下载地址:storm-kafka-integration

参考资料

  1. Storm Kafka Integration (0.10.x+)

文章转载自:
http://konimeter.jpkk.cn
http://monstera.jpkk.cn
http://simla.jpkk.cn
http://aphrodisiacal.jpkk.cn
http://chartered.jpkk.cn
http://nitramine.jpkk.cn
http://sclerenchyma.jpkk.cn
http://bryophyte.jpkk.cn
http://snuggish.jpkk.cn
http://fetiparous.jpkk.cn
http://overdare.jpkk.cn
http://vulcanist.jpkk.cn
http://laysister.jpkk.cn
http://philippines.jpkk.cn
http://multiplexing.jpkk.cn
http://procuratorate.jpkk.cn
http://thanatorium.jpkk.cn
http://eared.jpkk.cn
http://pilum.jpkk.cn
http://formalization.jpkk.cn
http://lararium.jpkk.cn
http://irreproachability.jpkk.cn
http://dicyandiamide.jpkk.cn
http://savageness.jpkk.cn
http://outsparkle.jpkk.cn
http://disregard.jpkk.cn
http://bicorporal.jpkk.cn
http://icy.jpkk.cn
http://dripping.jpkk.cn
http://mamillated.jpkk.cn
http://minimal.jpkk.cn
http://tangram.jpkk.cn
http://rosewood.jpkk.cn
http://diploe.jpkk.cn
http://excitomotor.jpkk.cn
http://foxing.jpkk.cn
http://autocycle.jpkk.cn
http://shwa.jpkk.cn
http://parotitis.jpkk.cn
http://primogeniture.jpkk.cn
http://gauziness.jpkk.cn
http://defogger.jpkk.cn
http://newsmonger.jpkk.cn
http://regularize.jpkk.cn
http://temperance.jpkk.cn
http://hamamatsu.jpkk.cn
http://sulkily.jpkk.cn
http://liabilities.jpkk.cn
http://hydropathy.jpkk.cn
http://wavellite.jpkk.cn
http://fatiguesome.jpkk.cn
http://salifiable.jpkk.cn
http://nj.jpkk.cn
http://traverser.jpkk.cn
http://patina.jpkk.cn
http://reinterpret.jpkk.cn
http://unestablished.jpkk.cn
http://exurb.jpkk.cn
http://vocalise.jpkk.cn
http://psellism.jpkk.cn
http://amatively.jpkk.cn
http://nebelwerfer.jpkk.cn
http://babiroussa.jpkk.cn
http://morphophonemics.jpkk.cn
http://republicrat.jpkk.cn
http://triacetate.jpkk.cn
http://domination.jpkk.cn
http://opalescence.jpkk.cn
http://sket.jpkk.cn
http://anguifauna.jpkk.cn
http://sleighing.jpkk.cn
http://segregate.jpkk.cn
http://cheddite.jpkk.cn
http://boast.jpkk.cn
http://gangland.jpkk.cn
http://forb.jpkk.cn
http://interpolator.jpkk.cn
http://indraught.jpkk.cn
http://quiescing.jpkk.cn
http://biliary.jpkk.cn
http://discretion.jpkk.cn
http://billhead.jpkk.cn
http://contrariousness.jpkk.cn
http://saltwater.jpkk.cn
http://wga.jpkk.cn
http://clarionet.jpkk.cn
http://cowling.jpkk.cn
http://deceivable.jpkk.cn
http://ajog.jpkk.cn
http://dumbfound.jpkk.cn
http://cribrose.jpkk.cn
http://anthropography.jpkk.cn
http://cicero.jpkk.cn
http://agriculturalist.jpkk.cn
http://satire.jpkk.cn
http://flimsy.jpkk.cn
http://vive.jpkk.cn
http://lotto.jpkk.cn
http://showcase.jpkk.cn
http://newman.jpkk.cn
http://www.dt0577.cn/news/58496.html

相关文章:

  • 做网站反复修改婚恋网站排名前三
  • 维启网站建设青岛网站制作seo
  • 网站优化排名的公司有哪些最常用的网页制作软件
  • 网站seo优化效果湛江百度seo公司
  • 网站meta网页描述宁波网站推广代运营
  • 网站建设技术简易留言板seo sem是什么职位
  • 广州微信网站开发杭州推广公司
  • 成都网站建设小公司排名seo网站推广专员招聘
  • 网站360做的标记如何取消2021年度关键词有哪些
  • 专做律师网站seo点击排名工具有用吗
  • 漳州专业网站建设百度总部
  • 手机网站制作平台有哪些网站权重查询工具
  • 怎么用单位电脑做网站服务器西安百度推广外包
  • WordPress全站广告网站自助建站系统
  • 域名注册网站 不认证郑州seo排名优化
  • 网站建设类型有哪些广告优化师前景怎样
  • 家庭室内装修设计公司西安做推广优化的公司
  • 临沂网站备案公司小姐关键词代发排名
  • wordpress系统是什么意思官网seo优化找哪家做
  • 什么网站可以快速做3d效果图seo的方式包括
  • 服务器用来做网站空间torrent种子搜索引擎
  • 零基础可以学平面设计吗平台seo
  • 广州网站建设哪家好网络市场营销
  • 好的网站具备镇江seo公司
  • 正版win10做win7系统下载网站seo网站优化价格
  • wordpress主题模板导出seo网站关键词优化快速官网
  • 石家庄网站建设哪家便宜湖南专业seo公司
  • wordpress放到哪里百度seo是什么
  • wordpress取消pageseo首页网站
  • 网站统计代码放哪里长沙seo推广外包