当前位置: 首页 > news >正文

最新新闻热点事件素材2022seo入门教程网盘

最新新闻热点事件素材2022,seo入门教程网盘,杰奇小说网站建设,html5动态效果的网站是怎么做的Windows环境下Elasticsearch相关软件安装 本文将介绍在 windows 环境下安装 Elasticsearch 相关的软件。 1、安装Elasticsearch 1.1 安装jdk ElasticSearch是基于lucence开发的,也就是运行需要java jdk支持,所以要先安装JAVA环境。 由于ElasticSear…

Windows环境下Elasticsearch相关软件安装

本文将介绍在 windows 环境下安装 Elasticsearch 相关的软件。

1、安装Elasticsearch

1.1 安装jdk

ElasticSearch是基于lucence开发的,也就是运行需要java jdk支持,所以要先安装JAVA环境。

由于ElasticSearch 5.x 往后依赖于JDK 1.8的,所以现在我们下载JDK 1.8或者更高版本。

这里将不再介绍JDK的安装,如果有需要请参考JDK的安装。

下载JDK1.8,下载完成后安装。

在这里插入图片描述

1.2 安装Elasticsearch

1.2.1 ElasticSearch下载

下载地址: https://www.elastic.co/downloads/elasticsearch
在这里插入图片描述

根据需要点击View past releases →选择不同的版本,这里我选择的是7.12.1

1.2.2 解压

在这里插入图片描述

1.2.3 启动Elasticsearch

进入bin目录下,双击执行elasticsearch.bat
在这里插入图片描述

看到started说明启动成功

在这里插入图片描述

1.2.4 测试

打开浏览器输入http://localhost:9200 进行测试,结果如下:

在这里插入图片描述

1.3 安装Elasticsearch-head插件

1.3.1 安装node环境

网址:https://nodejs.org/en/download/

下载Windows版msi的,下载完直接安装,一直确定。

这里选择的安装包是 node-v16.13.1-x64.msi

安装完后cmd查看版本node-v

在这里插入图片描述

1.3.2 安装grunt

grunt是一个很方便的构建工具,可以进行打包压缩、测试、执行等等的工作,5.x里之后的head插件就是通过

grunt启动的,因此需要安装grunt。

npm install -g grunt-cli

查看版本号 grunt -version

在这里插入图片描述

1.3.3 下载head插件

https://github.com/mobz/elasticsearch-head网站下载安装包,解压安装包

在这里插入图片描述

进入head文件夹下,执行命令:npm install (此处是为安装pathomjs)

如果安装速度慢,设置成淘宝的镜像重新安装

npm config set registry https://registry.npm.taobao.org

或者在https://npm.taobao.org/dist/phantomjs/下载

1.3.4 启动

安装完成之后npm run startgrunt server,启动head插件

在这里插入图片描述

访问http://localhost:9100

在这里插入图片描述

发现集群健康值是未连接,下面进行配置的修改。

1.3.5 修改es使用的参数

编辑elasticsearch-7.12.1\config\elasticsearch.yml文件

在这里插入图片描述

# 增加新的参数,这样head插件可以访问es
http.cors.enabled: true 
http.cors.allow-origin: "*"
# 注意,设置参数的时候后面要有空格

在这里插入图片描述

1.3.6 重启es

修改完配置将es重启,浏览器访问 http://localhost:9100

在这里插入图片描述

到此,Elasticsearch和ElasticSearch-head已经装好了。

1.4 Elasticsearch安装为Windows服务

elasticsearch的bin目录下有一个elasticsearch-service.bat

在这里插入图片描述

cmd 进入bin目录下执行: elasticsearch-service.bat install

在这里插入图片描述

原因是使用了系统环境变量中的jdk(1.8),而es7要求的jdk版本为11。

打开elasticsearch-env.bat,找到:

rem comparing to empty string makes this equivalent to bash -v check on env var
rem and allows to effectively force use of the bundled jdk when launching ES
rem by setting JAVA_HOME=
if defined ES_JAVA_HOME (set JAVA="%ES_JAVA_HOME%\bin\java.exe"set JAVA_TYPE=ES_JAVA_HOME
) else if defined JAVA_HOME (rem fallback to JAVA_HOMEecho "warning: usage of JAVA_HOME is deprecated, use ES_JAVA_HOME" >&2set JAVA="%JAVA_HOME%\bin\java.exe"set "ES_JAVA_HOME=%JAVA_HOME%"set JAVA_TYPE=JAVA_HOME
) else (rem use the bundled JDK (default)set JAVA="%ES_HOME%\jdk\bin\java.exe"set "ES_JAVA_HOME=%ES_HOME%\jdk"set JAVA_TYPE=bundled JDK
)

设置ES_JAVA_HOME环境变量:

在这里插入图片描述

重新执行:

在这里插入图片描述

查看电脑服务es已经存在了

在这里插入图片描述

elasticsearch-service.bat的常用命令:

install: 安装Elasticsearch服务
remove: 删除已安装的Elasticsearch服务(如果启动则停止服务)
start: 启动Elasticsearch服务(如果已安装)
stop: 停止服务(如果启动)
manager: 启动GUI来管理已安装的服务

1.5 Elasticsearch分词器Elasticsearch-Analysis-ik安装

1、进入Elasticsearch安装目录下的bin目录下执行下面命令(只支持 v5.5.1以上)

elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v5.5.3/elasticsearch-analysis-ik-5.5.3.zip

在这里插入图片描述

2、进入 Elasticsearch安装目录,新建plugins/ik文件夹

https://github.com/medcl/elasticsearch-analysis-ik/releases 找到对应的版本下载zip包,然后

解压放入上面目录重启elasticsearch就可以了。
在这里插入图片描述

3、分词测试

默认分词测试

在这里插入图片描述

ik_max_word

在这里插入图片描述

ik_smart

在这里插入图片描述

2、安装ElasticHD

可执行程序的下载地址:https://github.com/360EntSecGroup-Skylar/ElasticHD/releases/

在这里插入图片描述

下载时需要下载对应的版本:

在这里插入图片描述

下载解压后,就会有一个ElasticHD.exe 的可执行文件,我们来继续看官方说明:

Step1: Download the corresponding elasticHD version,Double click zip package to unzip
Step2: exec elastichd ./ElasticHD -p 127.0.0.1:9800 

意思是说我们要用cmd命令去启动它,在启动的时候去指定它的访问端口。

CMD命令:

cd 文件目录
ElasticHD -p 127.0.0.1:9800  

在这里插入图片描述

如果你觉得每次都这样启动麻烦,可以用个记事本写下来,然后把记事本后缀名改成.bat ,这样就双击启动了。

然后,我们浏览器访问下(如果你启动的服务想要别的电脑访问,就不要使用127.0.0.1 ,要使用局域网IP或者外网

的固定IP)。

在这里插入图片描述

当然,这个工具还有其它的一些特色功能,如果你们有需要,就自己去研究吧。

3、安装Kibana

下载地址:https://artifacts.elastic.co/downloads/kibana/kibana-7.12.1-windows-x86_64.zip

下载完成后解压:

在这里插入图片描述

先去运行es启动完毕后,在进入bin目录后点击Kibana.bat就能运行Kibana。
在这里插入图片描述

浏览器输入localhost:5601就能访问Kibana。

在这里插入图片描述

点击Explore on my ownDismiss

在这里插入图片描述

左侧下拉列表菜单:

在这里插入图片描述

选择Dev Tools

在这里插入图片描述

这样就可以执行相关的语句,这里做了一下小测试,用起来比head插件方便,head插件需要去安装node.js,相

比来说比较麻烦。

在这里插入图片描述

Kinana如果启动出错,进行如下操作:

curl -X DELETE http://localhost:9200/.kibana*
{"acknowledged":true}

4、安装Logstash

logstash 安装,下载最新版本的logstash: https://www.elastic.co/fr/downloads/logstash

在这里插入图片描述

根据自己的需要,点击View past releases →下载相应的版本,这里我下载的是这个版本logstash-7-12-1

https://www.elastic.co/cn/downloads/past-releases/logstash-7-12-1

解压到磁盘根目录下:

在这里插入图片描述

启动脚本在 logstash-7.12.1>bin

在这里插入图片描述

logstash使用

1、进入目录logstash-7.12.1 > config,打开:logstash-sample.conf,设置如下内容:

在这里插入图片描述

# Sample Logstash configuration for creating a simple
# Beats -> Logstash -> Elasticsearch pipeline.input {beats {port => 5044}
}output {elasticsearch {hosts => ["http://localhost:9200"]index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"#user => "elastic"#password => "changeme"}
}

2、进入bin目录,cmd启动

logstash.bat -f C:\zsxsoftware\logstash-7.12.1\config\logstash-sample.conf

启动成功

在这里插入图片描述

在这里插入图片描述

3、浏览器访问

在这里插入图片描述

4.1 Logstash同步数据库配置案例

C:\zsxsoftware\logstash-7.12.1路径下新建一个sync文件夹用来进行操作。

新建一个logstash-db-sync.conf文件,文件的内容为:
在这里插入图片描述

input {jdbc {# 设置 MySql/MariaDB 数据库url以及数据库名称jdbc_connection_string => "jdbc:mysql://localhost:3306/logstash-db?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true"# 用户名和密码jdbc_user => "root"jdbc_password => "root"# 数据库驱动所在位置,可以是绝对路径或者相对路径jdbc_driver_library => "C:\zsxsoftware\logstash-7.12.1\sync\mysql-connector-java-5.1.41.jar"# 驱动类名jdbc_driver_class => "com.mysql.jdbc.Driver"# 开启分页jdbc_paging_enabled => "true"# 分页每页数量,可以自定义jdbc_page_size => "10000"# 执行的sql文件路径statement_filepath => "C:\zsxsoftware\logstash-7.12.1\sync\logstash.sql"# 设置定时任务间隔  含义:分、时、天、月、年,全部为*默认含义为每分钟跑一次任务schedule => "* * * * *"# 索引类型type => "_doc"# 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件use_column_value => true# 记录上一次追踪的结果值last_run_metadata_path => "C:\zsxsoftware\logstash-7.12.1\sync\track_time"# 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间tracking_column => "updated_time"# tracking_column 对应字段的类型tracking_column_type => "timestamp"# 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录clean_run => false# 数据库字段名称大写转小写lowercase_column_names => false}
}
output {elasticsearch {# 如果是7.x不设置该属性会失败document_type => "_doc"# es地址hosts => ["127.0.0.1:9200"]# 同步的索引名index => "logstash-test"# 设置_docID和数据相同。itemId与sql同步脚本中的itemId保持一致document_id => "%{itemId}"# document_id => "%{id}"# 定义模板名称template_name => "myik"# 模板所在位置template => "C:\zsxsoftware\logstash-7.12.1\sync\logstash-ik.json"# 重写模板template_overwrite => true# 默认为truefalse关闭logstash自动管理模板功能,如果自定义模板,则设置为falsemanage_template => false}# 日志输出stdout {codec => json_lines}
}

logstash.sql文件内容

SELECTi.id as itemId,i.item_name as itemName,i.sell_counts as sellCounts,ii.url as imgUrl,tempSpec.price_discount as price,i.updated_time as updated_time
FROMitems i
LEFT JOINitems_img ii
oni.id = ii.item_id
LEFT JOIN(SELECT item_id,MIN(price_discount) as price_discount from items_spec GROUP BY item_id) tempSpec
oni.id = tempSpec.item_id
WHEREii.is_main = 1andi.updated_time >= :sql_last_value
--:sql_last_value是记录的最后的一个值

logstash-ik.json文件内容

{"order": 10,"version": 1,"index_patterns": ["*"],"settings": {"index": {"refresh_interval": "5s"}},"mappings": {"_default_": {"dynamic_templates": [{"message_field": {"path_match": "message","match_mapping_type": "string","mapping": {"type": "text","norms": false}}},{"string_fields": {"match": "*","match_mapping_type": "string","mapping": {"type": "text","norms": false,"analyzer": "ik_smart","fields": {"keyword": {"type": "keyword","ignore_above": 256}}}}}],"properties": {"@timestamp": {"type": "date"},"@version": {"type": "keyword"},"geoip": {"dynamic": true,"properties": {"ip": {"type": "ip"},"location": {"type": "geo_point"},"latitude": {"type": "half_float"},"longitude": {"type": "half_float"}}}}}},"aliases": {}
}

track_time文件内容

--- 1970-01-01 00:00:00.000000000 Z

进入cmd启动

logstash.bat -f C:\zsxsoftware\logstash-7.12.1\sync\logstash-db-sync.conf

启动成功

在这里插入图片描述

在这里插入图片描述

{"@version":"1","itemName":"【天天吃货】澳洲大龙虾 餐桌霸气大菜 聚会有面子","imgUrl":"http://122.152.205.72:88/foodie/seafood-1004/img1.png","type":"_doc","price":7840,"@timestamp":"2022-06-12T04:08:00.102Z","itemId":"seafood-1004","sellCounts":206}
{"@version":"1","itemName":"美味三文鱼 寿司 聚会必备","imgUrl":"http://122.152.205.72:88/foodie/seafood-138/img1.png","type":"_doc","price":26800,"@timestamp":"2022-06-12T04:08:00.103Z","itemId":"seafood-138","sellCounts":3051}
{"@version":"1","itemName":"【天天吃货】武汉鸭胗 卤味齐全 香辣麻辣","imgUrl":"http://122.152.205.72:88/foodie/snacks-1002/img1.png","type":"_doc","price":22500,"@timestamp":"2022-06-12T04:08:00.104Z","itemId":"snacks-1002","sellCounts":147}
{"@version":"1","itemName":"新鲜卤辣香菇 香甜可口","imgUrl":"http://122.152.205.72:88/foodie/snacks-90/img1.png","type":"_doc","price":880,"@timestamp":"2022-06-12T04:08:00.104Z","itemId":"snacks-90","sellCounts":2652}
{"@version":"1","itemName":"儿童爱吃奶糖 休闲食品","imgUrl":"http://122.152.205.72:88/foodie/suger-116/img1.png","type":"_doc","price":1520,"@timestamp":"2022-06-12T04:08:00.105Z","itemId":"suger-116","sellCounts":2296}
{"@version":"1","itemName":"【天天吃货】精品碧螺春 居家必备茶叶 喝茶最佳","imgUrl":"http://122.152.205.72:88/foodie/tea-1003/img1.png","type":"_doc","price":17600,"@timestamp":"2022-06-12T04:08:00.106Z","itemId":"tea-1003","sellCounts":3100}
{"@version":"1","itemName":"养生茶必喝红茶 秋冬必备","imgUrl":"http://122.152.205.72:88/foodie/tea-148/img1.png","type":"_doc","price":22800,"@timestamp":"2022-06-12T04:08:00.108Z","itemId":"tea-148","sellCounts":2331}

索引已经新建,查看索引的信息:

在这里插入图片描述

索引的字段和数据库的查询字段是相互对应的。

查看数据:

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

搜索测试:

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

结果一切正常。

4.2 通过Logstash导入演示数据到ElasticSearch

1、准备数据

https://grouplens.org/datasets/movielens/上下载数据

下载ml-latest-small.zip文件:

https://files.grouplens.org/datasets/movielens/ml-latest-small.zip

解压后得到movies.csv文件

在这里插入图片描述

2、logstash配置文件

logstash-7.12.1/conf目录下拷贝一份logstash-sample.conf文件, 命名为:logstash-movies.conf

内容如下:

# Sample Logstash configuration for creating a simple
# Beats -> Logstash -> Elasticsearch pipeline.input {file {path => "C:/zsxsoftware/logstash-7.12.1/movies/movies.csv"start_position => "beginning"sincedb_path => "C:/zsxsoftware/logstash-7.12.1/movies/null.txt"}
}filter {csv {separator => ","columns => ["id", "content", "genre"]}mutate {split => { "genre" => "|"}remove_field => ["path", "host", "@timestamp", "message"]}mutate {split => { "content" => "(" }add_field => { "title" => "%{[content][0]}"}add_field => { "year" => "%{[content][1]}"}}mutate {convert => {"year" => "integer"}strip => ["title"]remove_field => ["path", "host", "@timestamp", "content"]}
}output {elasticsearch {hosts => ["http://localhost:9200"]index => "movies"document_id => "%{id}"#user => "user"#password => "password"}stdout {}
}

3、执行导入

logstash.bat -f C:\zsxsoftware\logstash-7.12.1\config\logstash-movies.conf

执行需要等一会,而后控制台输出内容,如下:

在这里插入图片描述

4、kibana检查数据是否导入index

在这里插入图片描述

4.3 Logstash实现数据读取

Logstash 配置文件有两个必需元素,输入(inputs)和输出(ouputs),以及一个可选元素 filters。输入插件配

置来源数据,过滤器插件在你指定时修改数据,输出插件将数据写入目标。

在这里插入图片描述

我们首先需要创建一个配置文件,配置内容如下图所示:

在这里插入图片描述

创建配置文件 weblog.conf
在这里插入图片描述

配置内容如下:

input {tcp {port => 9900}
}filter {grok {match => { "message" => "%{COMBINEDAPACHELOG}" }}mutate {convert => {"bytes" => "integer"}}geoip {source => "clientip"}useragent {source => "agent"target => "useragent"}date {match => ["timestamp", "dd/MMM/yyyy:HH:mm:ss Z"]}
}output {stdout { }elasticsearch {hosts => ["localhost:9200"]}
}

在上面,我们同时保留两个输出:stdout 及 elasticsearch。事实上,我们可以定义很多个的输出。stdout 输出对

于我们初期的调试是非常有帮助的。等我们完善了所有的调试,我们可以把上面的 stdout 输出关掉。

启动logstash:

logstash.bat -f C:\zsxsoftware\logstash-7.12.1\streamconf\weblog.conf

在这里插入图片描述

发送数据:

在这里插入图片描述

看logstash的后台输出:
在这里插入图片描述

这一次,我们打开 Kibana,执行命令,成功看到 es 中的这条记录。

在这里插入图片描述

5、安装Filebeat

5.1 下载安装包

https://www.elastic.co/cn/downloads/beats/filebeat

在这里插入图片描述

根据自己的需要,点击View past releases →下载相应的版本,这里我下载的是这个版本filebeat-7-12-1

5.2 解压

在这里插入图片描述

5.3 修改配置文件

编辑filebeat.yml配置文件:

1、配置 filebeat:inputs:path ,这里的路径是所要收集日志的路径。

在这里插入图片描述

2、配置 enabled: true 这个配置很重要,只有配置为true之后配置才可生效,否则不起作用。

在这里插入图片描述

3、配置Outputs ,这里的Outputs有elasticsearch,logstash。按照配置文件下面的示例配置即可,只能配置一

个输出,默认是ElasticSearch。

在这里插入图片描述

5.4 启动

.\filebeat -e -c filebeat.yml

在这里插入图片描述

正常情况下,应该有个链接ES的过程,将数据输出到es。

在这里插入图片描述

5.5 测试

用以下命令向beat.log文件写入内容,以下内容是全量覆盖,不是追加往里面写内容,若想改成追加内容,把下

面的>符号改成 >>即可。

echo "2020-10-31 08:55:09,578 [8] INFO  test.Logging - 2017-06-11 08:55:09--System.ArgumentOutOfRangeException" > beat.log

后台打印信息:

在这里插入图片描述

kinaba查看,多了一个索引:

在这里插入图片描述

默认情况下,Filebeat写事件到名为filebeat-7.12.1-yyyy.MM.dd的索引,其中yyyy.MM.dd是事件被索引的日

期。为了用一个不同的名字,你可以在Elasticsearch输出中设置index选项。

在这里插入图片描述

在这里插入图片描述

到目前为止,和Elasticsearch相关的一些常用的软件都介绍完毕。

http://www.dt0577.cn/news/4985.html

相关文章:

  • 北京海淀区网站开发福州网站seo优化公司
  • 网站上的动态图怎么做电子商务网站建设与管理
  • 营销型网站架构师微信小程序怎么制作自己的程序
  • 安徽股票配资网站建设口碑营销的产品有哪些
  • iis7 发布静态网站2022年新闻大事
  • 专业的家居行业网站模板郑州厉害的seo顾问
  • 深圳航空公司官方网站招聘市场营销实务
  • 公司网站谁负责做黄冈网站推广软件视频下载
  • 网页设计与网站建设报告书写一篇软文1000字
  • 外贸网站模板 外贸网站制作网络推广培训班哪家好
  • 四川seo整站优化吧互联网广告
  • 服务器可以放几个网站百度关键词优化排名
  • wordpress导航兰天津seo方案
  • 金融行业网站建设方案域名比价网
  • 光谷企业网站建设html网页制作成品
  • 辽宁鞍山网站建设成都网站seo公司
  • 关于网站开发论文的摘要上海网站优化公司
  • 用angular做的网站链接抖音关键词排名软件
  • 做网站时连服务器上的数据库民生热点新闻
  • 推动高质量发展的必然要求网站网络推广优化
  • 专做海岛游的网站网站优化是什么
  • 网站建设与企业管理心得体会关键词批量调词软件
  • 网页打不开显示不安全怎么办重庆seo研究中心
  • 网站被降权后怎么办app拉新推广赚佣金
  • 广州高端网站建设定制深圳专业建站公司
  • phpcms可以做网站吗企业营销型网站有哪些
  • 电子商务网站开发实训免费正规大数据查询平台
  • 做网站公司起什么名字今日最新抗疫数据
  • 网站制作知名 乐云践新专家推广关键词排名
  • 山东今日头条新闻天津seo关键词排名优化