时间:2025-11-04 21:01:37 来源:网络整理编辑:系统运维
一、前言在数据量大的企业级实践中,Elasticsearch显得非常常见,特别是数据表超过千万级后,无论怎么优化,还是有点力不从心!使用中,最首先的问题就是怎么把千万级数据同步到Elasticsear

在数据量大的数据企业级实践中,Elasticsearch显得非常常见,搭建到特别是数据数据表超过千万级后,无论怎么优化,搭建到还是数据有点力不从心!使用中,搭建到最首先的数据问题就是怎么把千万级数据同步到Elasticsearch中,在一些开源框架中知道了,搭建到有专门进行同步的数据!那就是搭建到Logstash。在思考,数据同步完怎么查看呢,搭建到这时Kibana映入眼帘,数据可视化的搭建到界面,让使用更加的得心应手哈!!这就是三剑客ELK。不过大多时候都是进行日志采集的,小编没有用,只是用来解决一个表的免费信息发布网数据量大,查询慢的!后面小编在专门搭建日志采集的ELK。
Elasticsearch 是一个分布式、RESTful 风格的搜索和数据分析引擎,能够解决不断涌现出的各种用例。作为 Elastic Stack 的核心,Elasticsearch 会集中存储您的数据,让您飞快完成搜索,微调相关性,进行强大的分析,并轻松缩放规模。
Kibana 是一个免费且开放的用户界面,能够让您对 Elasticsearch 数据进行可视化,并让您在 Elastic Stack 中进行导航。您可以进行各种操作,从跟踪查询负载,到理解请求如何流经您的整个应用,都能轻松完成。亿华云计算
Logstash 是免费且开放的服务器端数据处理管道,能够从多个来源采集数据,转换数据,然后将数据发送到您最喜欢的“存储库”中。
现在最新版就是8.5,最新的教程少和问题未知,小编选择7版本的,求一手稳定哈!
于是去hub.docker查看了一下,经常用的版本,最终确定为:7.17.7
dockerHub官网地址:https://hub.docker.com/_/elasticsearch
官方规定:
安装 Elastic Stack 时,您必须在整个堆栈中使用相同的版本。例如,如果您使用的是 Elasticsearch 7.17.7,则安装 Beats 7.17.7、APM Server 7.17.7、Elasticsearch Hadoop 7.17.7、Kibana 7.17.7 和 Logstash 7.17.7

复制sudo docker run -p 3306:3306 --name mysql \
-v /mydata/mysql/log:/var/log/mysql \
-v /mydata/mysql/data:/var/lib/mysql \
-v /mydata/mysql/conf:/etc/mysql \
-e MYSQL_ROOT_PASSWORD=root \
-d mysql:5.7
####这里往下是解释,不需要粘贴到linux上#############
--name 指定容器名字
-v 将对应文件挂载到linux主机上
-e 初始化密码
-p 容器端口映射到主机的端口(把容器的3306映射到linux中3306,这样windows上就可以访问这个数据库)
-d 后台运行1.2.3.4.5.6.7.8.9.10.11.12.
复制[client]
default-character-set=utf8
[mysql]
default-character-set=utf8
[mysqld]
init_cnotallow=SET collation_connection = utf8_unicode_ci
init_cnotallow=SET NAMES utf8
character-set-server=utf8
collation-server=utf8_unicode_ci
skip-character-set-client-handshake
skip-name-resolve1.2.3.4.5.6.7.8.9.10.11.

复制DROP TABLE IF EXISTS `sys_log`;
CREATE TABLE `sys_log` (
`id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT 日志主键,
`title` varchar(50) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT COMMENT 模块标题,
`business_type` int(2) NULL DEFAULT 0 COMMENT 业务类型(0其它 1新增 2修改 3删除),
`method` varchar(100) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT COMMENT 方法名称,
`request_method` varchar(10) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT COMMENT 请求方式,
`oper_name` varchar(50) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT COMMENT 操作人员,
`oper_url` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT COMMENT 请求URL,
`oper_ip` varchar(128) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT COMMENT 主机地址,
`oper_time` datetime(0) NULL DEFAULT NULL COMMENT 操作时间,
PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB AUTO_INCREMENT = 1585197503834284034 CHARACTER SET = utf8 COLLATE = utf8_general_ci COMMENT = 操作日志记录 ROW_FORMAT = Dynamic;
SET FOREIGN_KEY_CHECKS = 1;1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.es挂载:
复制mkdir -p /mydata/elk/elasticsearch/{config,plugins,data,logs}1.kibana挂载:
复制mkdir -p /mydata/elk/kibana/config1.logstash挂载:
复制mkdir -p /mydata/elk/logstash/config1.输入下面命令:
复制http.host: 0.0.0.0
xpack.security.enabled: false1.2.http.host:任何地址都可以访问。
xpack.security.enabled:关闭密码认证内容:
复制server.host: 0.0.0.0
elasticsearch.hosts: [ "http://192.168.239.131:9200" ]1.2.elasticsearch.hosts:指向es地址。
内容:
复制http.host: 0.0.0.0
xpack.monitoring.elasticsearch.hosts: [ "http://192.168.239.131:9200" ]1.2.记录存放:
复制touch log
chmod 777 log1.2. 复制vim /mydata/elk/logstash/config/logstash.conf1.内容:
jdbc_driver_library:指定必须要自己下载mysql-connector-java-8.0.28.jar,版本自己决定,下载地址:https://mvnrepository.com/artifact/mysql/mysql-connector-java;
statement:如果sql长,可以指定sql文件,直接指定文件所在位置,这里的位置都为容器内部的地址;
last_run_metadata_path:上次记录存放文件对应上方的log。

复制input {
stdin {
}
jdbc {
jdbc_connection_string => "jdbc:mysql://192.168.239.131:3306/test?useUnicode=true&characterEncoding=utf8&serverTimeznotallow=UTC"
jdbc_user => "root"
jdbc_password => "root"
jdbc_driver_library => "/usr/share/logstash/config/mysql-connector-java-8.0.28.jar"
jdbc_driver_class => "com.mysql.jdbc.Driver"
jdbc_paging_enabled => "true"
jdbc_page_size => "300000"
statement => "SELECT id, title, business_type, method, request_method, oper_name, oper_url, oper_ip, oper_time FROM sys_log"
schedule => "*/1 * * * *"
use_column_value => false
tracking_column_type => "timestamp"
tracking_column => "oper_time"
record_last_run => true
jdbc_default_timezone => "Asia/Shanghai"
last_run_metadata_path => "/usr/share/logstash/config/log"
}
}
output {
elasticsearch {
hosts => ["192.168.239.131:9200"]
index => "sys_log"
document_id => "%{id}"
}
stdout {
codec => json_lines
}
}1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.25.26.27.28.29.30.31.32.流水线指定上面的配置文件:
复制vim /mydata/elk/logstash/config/pipelines.yml1.内容:
复制- pipeline.id: sys_log
path.config: "/usr/share/logstash/config/logstash.conf"1.2.最终/mydata/elk/logstash/config/下的文件。

防止保存没有修改权限,可以把上面建的文件夹和文件赋予修改权限:
复制chmod 777 文件名称1.在elk目录创建:
复制vim docker-compose.yml1.内容如下:
复制version: 3
services:
elasticsearch:
image: elasticsearch:7.17.7
container_name: elasticsearch
ports:
- "9200:9200"
- "9300:9300"
environment:
- cluster.name=elasticsearch
- discovery.type=single-node
- "ES_JAVA_OPTS=-Xms512m -Xmx512m"
volumes:
- /mydata/elk/elasticsearch/plugins:/usr/share/elasticsearch/plugins
- /mydata/elk/elasticsearch/data:/usr/share/elasticsearch/data
- /mydata/elk/elasticsearch/logs:/usr/share/elasticsearch/logs
kibana:
image: kibana:7.17.7
container_name: kibana
ports:
- "5601:5601"
depends_on:
- elasticsearch
environment:
I18N_LOCALE: zh-CN
volumes:
- /mydata/elk/kibana/config/kibana.yml:/usr/share/kibana/config/kibana.yml
logstash:
image: logstash:7.17.7
container_name: logstash
ports:
- "5044:5044"
volumes:
- /mydata/elk/logstash/config:/usr/share/logstash/config
depends_on:
- elasticsearch1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.25.26.27.28.29.30.31.32.33.34.35.36.37.38.一定要在docker-compose.yml所在目录执行命令!
运行:
复制docker compose up -d1.
完成后可以跳到5进行查看kibana!




http://192.168.239.131:5601/app/home#/

复制PUT /sys_log
{
"settings": {
"number_of_shards": 1,
"number_of_replicas": 0,
"index": {
"max_result_window": 100000000
}
},
"mappings": {
"dynamic": "strict",
"properties": {
"@timestamp": {
"type": "date"
},
"@version": {
"type": "text",
"fields": {
"keyword": {
"type": "keyword",
"ignore_above": 256
}
}
},
"business_type": {
"type": "integer"
},
"title": {
"type": "text"
},
"method": {
"type": "text"
},
"request_method": {
"type": "text"
},
"oper_name": {
"type": "text"
},
"oper_url": {
"type": "text"
},
"oper_ip": {
"type": "text"
},
"oper_time": {
"type": "date"
},
"id": {
"type": "long"
}
}
}
}1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.25.26.27.28.29.30.31.32.33.34.35.36.37.38.39.40.41.42.43.44.45.46.47.48.49.50.51.52.53.54.55.新增几条记录,然后查看Logstash日志
复制docker logs -f logstash1.
我们去kibana看一下是否已存在:
输入命令:
复制GET /sys_log/_search
{
"query": {
"match_all": {}
}
}1.2.3.4.5.6.我们看到存在6条,和mysql一致!


用彩纸打造趣味电脑教程(彩纸DIY教程,让电脑知识更有趣)2025-11-04 21:00
微服务部署—Docker Compose搭建高可用双机热备MySQL数据库2025-11-04 19:55
深入理解MySQL锁机制原理2025-11-04 19:54
超火爆的Fluent Bit 曝关键漏洞,影响几乎所有云服务商2025-11-04 19:41
电脑共享使用教程2025-11-04 19:40
让你的Linux服务器更安全的四个方法2025-11-04 19:23
如何在Windows 10启用Win7/Win8.1通知区域图标设置?2025-11-04 19:05
熟练使用 Redis 的五大数据结构:Java 实战教程2025-11-04 18:49
轻松学会以戴尔电脑分区桌面教程(简明易懂,快速操作)2025-11-04 18:49
如何启用Ubuntu的休眠模式2025-11-04 18:26
OPPOR732G全网通手机体验评测(OPPOR732G全网通手机的性能、拍照、续航等方面优势分析)2025-11-04 20:50
如何移除Windows 10“此电脑”中不需要的文件夹2025-11-04 20:49
硬币都有两个面,而解决问题的时候总是有条件限制的2025-11-04 20:27
如何在Ubuntu上比较PDF文件2025-11-04 20:10
如何以3分钟强制删除管理员权限文件(快速、高效、安全的解决办法)2025-11-04 20:07
关于Linux防火墙iptables的面试问答2025-11-04 19:55
实例讲解C++连接各种数据库,包含SQL Server、MySQL、Oracle2025-11-04 19:38
浅谈HBase数据结构和系统架构2025-11-04 19:32
电脑设计支架设计教程(让你的电脑工作更高效、更舒适、更健康)2025-11-04 19:27
Fedora && Arch – 最浪漫的事现已发生…2025-11-04 19:25