1.ECK 简介
Elastic Cloud on Kubernetes,这是一款基于 Kubernetes Operator 模式的新型编排产品,用户可使用该产品在 Kubernetes 上配置、管理和运行 Elasticsearch 集群。ECK 的愿景是为 Kubernetes 上的 Elastic 产品和解决方案提供 SaaS 般的体验。
ECK 使用 Kubernetes Operator 模式构建而成,需要安装在 Kubernetes 集群内,ECK 用于部署,且更专注于简化所有后期运行工作:
- 管理和监测多个集群
- 轻松升级至新版本
- 扩大或缩小集群容量
- 更改集群配置
- 动态调整本地存储的规模
- 备份
Kubernetes 目前是容器编排领域的领头羊,而 Elastic 社区发布 ECK,使 Elasticsearch 更容易的跑在云上,也是为云原生技术增砖添瓦,紧跟时代潮流。
角色划分
在 Elasticsearch 中,有很多角色,常用的角色有如下:
- Master Node:主节点
集群中的一个节点会被选为 master 节点,它将负责管理集群范畴的变更,例如创建或删除索引,添加节点到集 群或从集群删除节点。master 节点无需参与文档层面的变更和搜索,这意味着仅有一个 master 节点并不会因流量增长而成为 瓶颈。任意一个节点都可以成为 master 节点
- Master eligible nodes:合格节点
每个节点部署后不修改配置信息,默认就是一个 eligible 节点,该节点可以参加选主流程,成为 Mastere 节点。该节点也保存了集群节点的状态。eligible 节点比 Master 节点更节省资源,因为它还未成为 Master 节点,只是有资格成功 Master 节点。
- Data Node:数据节点
持有数据和倒排索引。默认情况下,每个节点都可以通过设定配置文件 elasticsearch.yml 中的 node.data 属性为 true (默认) 成为数据节点。如果需要一个专门的主节点,应将其 node.data 属性设置为 false
- Coordinating Node:协调节点
协调节点,是一种角色,而不是真实的 Elasticsearch 的节点,你没有办法通过配置项来配置哪个节点为协调节点。集群中的任何节点,都可以充当协调节点的角色。当一个节点 A 收到用户的查询请求后,会把查询子句分发到其它的节点,然后合并各个节点返回的查询结果,最后返回一个完整的数据集给用户。在这个过程中,节点 A 扮演的就是协调节点的角色。毫无疑问,协调节点会对 CPU、Memory 要求比较高。
- Ingest Node:ingest 节点
ingest 节点可以看作是数据前置处理转换的节点,支持 pipeline 管道 设置,可以使用 ingest 对数据进行过滤、转换等操作,类似于 logstash 中 filter 的作用,功能相当强大。
- machine learning:机器学习节点
- Client 节点:如果将 node.master 属性和 node.data 属性都设置为 false,那么该节点就是一个客户端节点,扮演一个负载均衡的角色,将到来的请求路由到集群中的各个节点,也就是执行协调节点的功能。
数据存储:
- 故障转移
当一个节点掉线,如果该节点是 master 节点,则通过比较 node ID,选择较小 ID 的节点为 master。然后由 master 节点决定分片如何重新分配。同理,新加入节点也是由 master 决定如何分配分片。
- 分片
shard:单台机器无法存储大量数据,es 可以将一个索引中的数据切分为多个 shard,分布在多台服务器上存储(如果节点不够,也会在一个 node 分片多个 shard)。shard 又分为 primary shard 和 replica shard,每个 shard 都是一个 lucene index。
- Segment
在 Lucene 中,单个倒排索引文件被称为 segment, 多个 segment 汇总在一起,就是 lucene 的 index, 也就是一个分片。写入新的文档,就会生成新的 segment. 搜索过程,就是搜索所有的 segment. 一个分片的所有的 segment 文件的信息保存在 commit point 文件中。而删除的文档会记录到.del 文件中。
搜索过程就是从 commit point 文件找到所有的 segment 文件进行查询,然后排除掉.del 中的文档。
删除文档,是直接把删除的文档写入到.del。
- Refresh
写入文档,会先写入到 index buffer 和 transaction log (会写入磁盘) 中,然后讲 index buffer 写入到 segment 中,这个过程就是 refresh, 默认是 1s refresh 一次。refresh 后,数据就可以被搜索到。
- Flush
主要就是把 segment 写入磁盘,会先调用 refresh, 把 index buffer 数据清空,生成新的 segment. 然后调用 fsync 把 segment 写入磁盘,然后清空 Transaction log. 默认 30min 执行一次 Flush, 或者 translation log(512m)满
- Merge
因为每次 refresh,都会产生新的 segment, 所以可以通过 merge 操作可以把多个 segment 文件合并,并且删除掉.del 里面的文档。
资源规划
- Master Node:Elasticsearch 如果做集群的话 Master 节点至少三台服务器或者三个 Master 实例加入相同集群(生产建议每个 es 实例部署在不同的设备上),三个 Master 节点最多只能故障一台 Master 节点,数据不会丢失,如果三个节点故障两个节点,则造成数据丢失并无法组成集群。
- Master eligible nodes:Elasticsearch 如果使用三台 Master 做集群,其中一台被真正选为了 Master,那么其它两台就是 eligible 节点。
- Data Node:在 Elasticsearch 集群中,此节点应该是最多的,单个索引在一个 data 节点实例上分片数保持在 3 个以内;每 1GB 堆内存对应集群的分片保持在 20 个以内;每个分片大小不要超过 30G。
- Coordinating Node: 增加协调节点可增加检索并发,但检索的速度还是取决于查询所命中的分片个数以及分片中的数据量。
Data 节点建议
- 单节点一个 ES 实例,则 ES 最大可用内存给到物理内存的 50%,最多不可超过 32G,
- 单台机器上部署了多个 ES 实例,则多个 ES 实例内存相加等于物理内存的 50%,多个 ES 实例内存相加不宜超过 32G。
分片建议:
- 如果单个分片每个节点可支撑 90G 数据,依此可计算出所需 data 节点数。
- 如果多个分片按照单个 data 节点 jvm 内存最大 30G 来计算,一个节点的分片保持在 600 个以内,存储保持在 18T 以内。
2.部署 ECK
官方文档:
https://www.elastic.co/guide/en/cloud-on-k8s/current/k8s-quickstart.html
- Deploy ECK in your Kubernetes cluster
- Deploy an Elasticsearch cluster
- Deploy a Kibana instance
- Upgrade your deployment
- Use persistent storage
- Check out the samples
Supported versions
- Kubernetes 1.17-1.21
- OpenShift 3.11, 4.3-4.7
- Google Kubernetes Engine (GKE), Azure Kubernetes Service (AKS), and Amazon Elastic Kubernetes Service (EKS)
- Elasticsearch, Kibana, APM Server: 6.8+, 7.1+
- Enterprise Search: 7.7+
- Beats: 7.0+
- Elastic Agent: 7.10+ (standalone), 7.14+ (Fleet)
- Elastic Maps Server: 7.11+
ECK should work with all conformant installers as listed in these FAQs. Distributions include source patches and so may not work as-is with ECK.
Alpha, beta, and stable API versions follow the same conventions used by Kubernetes.
Elastic Stack application images for the OpenShift-certified Elasticsearch (ECK) Operator are only available from version 7.10 and later.
Deploy an Elasticsearch cluster
Apply a simple Elasticsearch cluster specification, with one Elasticsearch node:
If your Kubernetes cluster does not have any Kubernetes nodes with at least 2GiB of free memory, the pod will be stuck in Pending state. See Manage compute resources for more information about resource requirements and how to configure them.
1
|
cat <<EOF | kubectl apply -f -apiVersion: elasticsearch.k8s.elastic.co/v1kind: Elasticsearchmetadata: name: quickstartspec: version: 7.14.1 nodeSets: - name: default count: 1 config: node.store.allow_mmap: falseEOF
|
Operator 自动创建和管理 Kubernetes 资源,以实现 Elasticsearch 集群的理想状态。 创建所有资源并准备好使用集群之前可能需要几分钟时间。
设置 node.store.allow_mmap: false 会影响性能,应针对生产工作负载进行调整,如虚拟内存部分所述。
监控集群运行状况和创建进度
获取 Kubernetes 集群中当前 Elasticsearch 集群的概览,包括运行状况、版本和节点数量:
1
|
kubectl get elasticsearchNAME HEALTH NODES VERSION PHASE AGEquickstart green 1 7.14.1 Ready 1m
|
创建集群时,没有 HEALTH 状态,PHASE 为空。 一段时间后,PHASE 变为 Ready,HEALTH 变为绿色。 HEALTH 状态来自 Elasticsearch 的集群健康 API。
可以看到有一个 Pod 在启动过程中:
1
|
kubectl get pods --selector='elasticsearch.k8s.elastic.co/cluster-name=quickstart'NAME READY STATUS RESTARTS AGEquickstart-es-default-0 1/1 Running 0 79s
|
访问该 Pod 的日志:
1
|
kubectl logs -f quickstart-es-default-0
|
请求 Elasticsearch 访问权限
为您的集群自动创建一个 ClusterIP 服务:
1
|
kubectl get service quickstart-es-httpNAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGEquickstart-es-http ClusterIP 10.15.251.145 <none> 9200/TCP 34m
|
step 1.Get the credentials.
使用 secret 在 Kubernetes 密钥中的密码自动创建一个名为 elastic 的默认用户:
1
|
PASSWORD=$(kubectl get secret quickstart-es-elastic-user -o go-template='{{.data.elastic | base64decode}}')
|
step 2.请求 Elasticsearch 得 endpoint
从 Kubernetes 集群内部:
1
|
curl -u "elastic:$PASSWORD" -k "https://quickstart-es-http:9200"
|
从本地工作站,在单独的终端中使用以下命令:
1
|
kubectl port-forward service/quickstart-es-http 9200
|
然后请求本地主机:
1
|
curl -u "elastic:$PASSWORD" -k "https://localhost:9200"
|
不建议使用 -k 标志禁用证书验证,应仅用于测试目的。 请参阅:设置您自己的证书
1
|
{ "name" : "quickstart-es-default-0", "cluster_name" : "quickstart", "cluster_uuid" : "XqWg0xIiRmmEBg4NMhnYPg", "version" : {...}, "tagline" : "You Know, for Search"}
|
Deploy a Kibana instance
要部署您的 Kibana 实例,请执行以下步骤。
step 1.指定一个 Kibana 实例并将其与您的 Elasticsearch 集群相关联:
1
|
cat <<EOF | kubectl apply -f -apiVersion: kibana.k8s.elastic.co/v1kind: Kibanametadata: name: quickstartspec: version: 7.14.1 count: 1 elasticsearchRef: name: quickstartEOF
|
step 2.监控 Kibana 运行状况和创建进度。
与 Elasticsearch 类似,您可以检索有关 Kibana 实例的详细信息:
And the associated Pods:
1
|
kubectl get pod --selector='kibana.k8s.elastic.co/name=quickstart'
|
step 3.Access Kibana.
A ClusterIP Service is automatically created for Kibana:
1
|
kubectl get service quickstart-kb-http
|
Use kubectl port-forward to access Kibana from your local workstation:
1
|
kubectl port-forward service/quickstart-kb-http 5601
|
在浏览器中打开 https://localhost:5601 您的浏览器将显示警告,因为默认配置的自签名证书未经已知证书颁发机构验证且不受您的浏览器信任。 您可以出于本快速入门的目的暂时确认警告,但强烈建议您为任何生产部署配置有效证书。
以弹性用户身份登录。 可以使用以下命令获取密码:
1
|
kubectl get secret quickstart-es-elastic-user -o=jsonpath='{.data.elastic}' | b
|
Deploy ECK in your Kubernetes cluster
如果您尝试升级现有 ECK 部署,请先阅读升级说明。
- 如果您使用 GKE,请确保您的用户具有集群管理员权限。 有关更多信息,请参阅在 GKE 上使用 Kubernetes RBAC 的先决条件。
- 如果您使用 Amazon EKS,请确保允许 Kubernetes 控制平面在端口 443 上与 Kubernetes 节点通信。这是与验证 Webhook 通信所必需的。 有关更多信息,请参阅推荐的入站流量。
- 有关安装选项的更多信息,请参阅安装 ECK。
安装自定义资源定义和操作符及其 RBAC 规则:
1
|
kubectl create -f https://download.elastic.co/downloads/eck/1.7.1/crds.yamlkubectl apply -f https://download.elastic.co/downloads/eck/1.7.1/operator.yaml
|
如果您运行的是 1.16 之前的 Kubernetes 版本,则必须使用清单的旧版本:
1
|
kubectl create -f https://download.elastic.co/downloads/eck/1.7.1/crds-legacy.yamlkubectl apply -f https://download.elastic.co/downloads/eck/1.7.1/operator-legacy.yaml
|
监控操作员日志:
1
|
kubectl -n elastic-system logs -f statefulset.apps/elastic-operator
|
3.使用 ECK 部署使用 ceph 持久化存储的 elasticsearch 集群
如下的 manifest 中,对实例的 heap 大小,容器的可使用内存,容器的虚拟机内存都进行了配置,可以根据集群需要做调整:
1
|
apiVersion: elasticsearch.k8s.elastic.co/v1kind: Elasticsearchmetadata: name: quickstartspec: version: 7.7.1 nodeSets: - name: master-nodes count: 1 config: node.master: true node.data: false podTemplate: spec: initContainers: - name: sysctl securityContext: privileged: true command: ['sh', '-c', 'sysctl -w vm.max_map_count=262144'] containers: - name: elasticsearch env: - name: ES_JAVA_OPTS value: -Xms1g -Xmx1g resources: requests: memory: 2Gi limits: memory: 2Gi volumeClaimTemplates: - metadata: name: elasticsearch-data spec: accessModes: - ReadWriteOnce resources: requests: storage: 5Gi storageClassName: rook-ceph-block - name: data-nodes count: 1 config: node.master: false node.data: true podTemplate: spec: initContainers: - name: sysctl securityContext: privileged: true command: ['sh', '-c', 'sysctl -w vm.max_map_count=262144'] containers: - name: elasticsearch env: - name: ES_JAVA_OPTS value: -Xms1g -Xmx1g resources: requests: memory: 2Gi limits: memory: 2Gi volumeClaimTemplates: - metadata: name: elasticsearch-data spec: accessModes: - ReadWriteOnce resources: requests: storage: 10Gi storageClassName: rook-ceph-block
|
查看 elasticsearch 集群的状态
1
|
# kubectl get podsquickstart-es-data-nodes-0 1/1 Running 0 54squickstart-es-master-nodes-0 1/1 Running 0 54s# kubectl get elasticsearchNAME HEALTH NODES VERSION PHASE AGEquickstart green 2 7.7.1 Ready 73s
|
查看 pv 的状态,我们可以看到申请的 pv 已经创建和绑定成功:
1
|
# kubectl get pvpvc-512cc739-3654-41f4-8339-49a44a093ecf 10Gi RWO Retain Bound default/elasticsearch-data-quickstart-es-data-nodes-0 rook-ceph-block 9m5spvc-eff8e0fd-f669-448a-8b9f-05b2d7e06220 5Gi RWO Retain Bound default/elasticsearch-data-quickstart-es-master-nodes-0 rook-ceph-block 9m5s
|
默认集群开启了 basic 认证,用户名为 elastic,密码可以通过 secret 获取。默认集群也开启了自签名证书 https 访问。我们可以通过 service 资源来访问 elasticsearch:
1
|
# kubectl get servicesNAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGEquickstart-es-data-nodes ClusterIP None <none> <none> 4m10squickstart-es-http ClusterIP 10.107.201.126 <none> 9200/TCP 4m11squickstart-es-master-nodes ClusterIP None <none> <none> 4m10squickstart-es-transport ClusterIP None <none> 9300/TCP 4m11s# kubectl get secret quickstart-es-elastic-user -o=jsonpath='{.data.elastic}' | base64 --decode; echo# curl https://10.107.201.126:9200 -u 'elastic:J1fO9bu88j8pYK8rIu91a73o' -k{ "name" : "quickstart-es-data-nodes-0", "cluster_name" : "quickstart", "cluster_uuid" : "AQxFX8NiTNa40mOPapzNXQ", "version" : { "number" : "7.7.1", "build_flavor" : "default", "build_type" : "docker", "build_hash" : "ad56dce891c901a492bb1ee393f12dfff473a423", "build_date" : "2020-05-28T16:30:01.040088Z", "build_snapshot" : false, "lucene_version" : "8.5.1", "minimum_wire_compatibility_version" : "6.8.0", "minimum_index_compatibility_version" : "6.0.0-beta1" }, "tagline" : "You Know, for Search"}
|
扩容 data 节点:修改 es.yaml 中 data-nodes 中 count 的 value 为 2,然后 apply 下 es.yaml 即可。
1
|
# kubectl apply -f es.yaml# kubectl get podsquickstart-es-data-nodes-0 1/1 Running 0 24mquickstart-es-data-nodes-1 1/1 Running 0 8m22squickstart-es-master-nodes-0 1/1 Running 0 24m# kubectl get elasticsearchNAME HEALTH NODES VERSION PHASE AGEquickstart green 3 7.7.1 Ready 25m
|
4.对接 kibana
由于默认 kibana 也开启了自签名证书的 https 访问,我们可以选择关闭,我们来使用 ECK 部署 kibana:
1
|
apiVersion: kibana.k8s.elastic.co/v1kind: Kibanametadata: name: quickstartspec: version: 7.7.1 count: 1 elasticsearchRef: name: quickstart http: tls: selfSignedCertificate: disabled: true# kubectl apply -f kibana.yaml# kubectl get podsNAME READY STATUS RESTARTS AGEquickstart-es-data-nodes-0 1/1 Running 0 31mquickstart-es-data-nodes-1 1/1 Running 1 15mquickstart-es-master-nodes-0 1/1 Running 0 31mquickstart-kb-6558457759-2rd7l 1/1 Running 1 4m3s# kubectl get kibanaNAME HEALTH NODES VERSION AGEquickstart green 1 7.7.1 4m27s
|
为 kibana 在 ingress 中添加一个四层代理,提供对外访问服务:
1
|
apiVersion: k8s.nginx.org/v1alpha1kind: GlobalConfigurationmetadata: name: nginx-configuration namespace: nginx-ingressspec: listeners: - name: kibana-tcp port: 5601 protocol: TCP---apiVersion: k8s.nginx.org/v1alpha1kind: TransportServermetadata: name: kibana-tcpspec: listener: name: kibana-tcp protocol: TCP upstreams: - name: kibana-app service: quickstart-kb-http port: 5601 action: pass: kibana-app # kubectl apply -f tsp-kibana.yaml
|
默认 kibana 访问 elasticsearch 的用户名为 elastic,密码获取方式如下
1
|
# kubectl get secret quickstart-es-elastic-user -o=jsonpath='{.data.elastic}' | base64 --decode; echo
|
5.删除 ECK 相关资源
删除 elasticsearch 和 kibana 以及 ECK
1
|
kubectl get namespaces --no-headers -o custom-columns=:metadata.name \ | xargs -n1 kubectl delete elastic --all -nkubectl delete -f https://download.elastic.co/downloads/eck/1.1.2/all-in-one.yaml
|
https://blog.51cto.com/leejia/2503406
访问 es 查看
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
|
root@quickstart-es-master-nodes-0 elasticsearch]# curl https://10.96.89.23:9200/_cat/indices -u 'elastic:l3t67679nIyV9MNy4rc4HVa1' -k
green open phy NT2oMsqsSdKx4W5_g7wfvQ 1 1 0 0 416b 208b
green open item Bp11ps_PTG6qvwSOV6My1Q 1 1 0 0 416b 208b
green open msgtrace nOIuwMUSRcC62dyRkU13jg 1 1 0 0 416b 208b
green open remote_statistics y_L3g4-CSK20LhhCiNBOUw 1 1 0 0 416b 208b
green open .apm-agent-configuration nye1dagFSu-zpVbONhNUEw 1 1 0 0 416b 208b
green open xgw vktPBq9oT3Kq9AfAXQdbBw 1 1 0 0 416b 208b
green open ddm f0m3nlU_TEq7dKWaXJaYuw 1 1 0 0 416b 208b
green open .kibana_1 iNSkCZbMRayodJUPPYWlZg 1 1 203 5 325kb 162.5kb
green open ue uKa9T5OzTRiv_0KmfSB_ow 1 1 0 0 416b 208b
green open .security-7 x82gxDW7SSmRXLO17FWnzg 1 1 36 0 222.8kb 111.4kb
green open .apm-custom-link -5kPJso5Sk27Nsnp_ytFcQ 1 1 0 0 416b 208b
green open in_carry_statistics VjZ-9z6URV2lFbdXWfHMcw 1 1 0 0 416b 208b
green open .kibana_task_manager_1 E1dhsSWxTkm_WCviifK3nw 1 1 5 2 105.8kb 52.9kb
green open kibana_sample_data_logs aAPoNjn3QKGDD1rTUKggow 1 1 14074 0 22.5mb 11.2mb
green open ddm_statistics ygju_d25RnKNuQkDIphP2A 1 1 0 0 416b 208b
green open network_statistics criLtztnTEyhOhjyN-ZAqQ 1 1 0 0 416b 208b
[root@quickstart-es-master-nodes-0 elasticsearch]# curl https://localhost:9200/_cat/indices -u 'elastic:l3t67679nIyV9MNy4rc4HVa1' -k
green open phy NT2oMsqsSdKx4W5_g7wfvQ 1 1 0 0 416b 208b
green open item Bp11ps_PTG6qvwSOV6My1Q 1 1 0 0 416b 208b
green open msgtrace nOIuwMUSRcC62dyRkU13jg 1 1 0 0 416b 208b
green open remote_statistics y_L3g4-CSK20LhhCiNBOUw 1 1 0 0 416b 208b
green open .apm-agent-configuration nye1dagFSu-zpVbONhNUEw 1 1 0 0 416b 208b
green open xgw vktPBq9oT3Kq9AfAXQdbBw 1 1 0 0 416b 208b
green open ddm f0m3nlU_TEq7dKWaXJaYuw 1 1 0 0 416b 208b
green open .kibana_1 iNSkCZbMRayodJUPPYWlZg 1 1 203 5 325kb 162.5kb
green open ue uKa9T5OzTRiv_0KmfSB_ow 1 1 0 0 416b 208b
green open .security-7 x82gxDW7SSmRXLO17FWnzg 1 1 36 0 222.8kb 111.4kb
green open in_carry_statistics VjZ-9z6URV2lFbdXWfHMcw 1 1 0 0 416b 208b
green open .apm-custom-link -5kPJso5Sk27Nsnp_ytFcQ 1 1 0 0 416b 208b
green open .kibana_task_manager_1 E1dhsSWxTkm_WCviifK3nw 1 1 5 2 105.8kb 52.9kb
green open kibana_sample_data_logs aAPoNjn3QKGDD1rTUKggow 1 1 14074 0 22.5mb 11.2mb
green open ddm_statistics ygju_d25RnKNuQkDIphP2A 1 1 0 0 416b 208b
green open network_statistics criLtztnTEyhOhjyN-ZAqQ 1 1 0 0 416b 208b
[root@quickstart-es-master-nodes-0 elasticsearch]# curl https://quickstart-es-master-nodes-0.quickstart-es-master-nodes:9200/_cat/indices -u 'elastic:l3t67679nIyV9MNy4rc4HVa1' -k
green open phy NT2oMsqsSdKx4W5_g7wfvQ 1 1 0 0 416b 208b
green open item Bp11ps_PTG6qvwSOV6My1Q 1 1 0 0 416b 208b
green open msgtrace nOIuwMUSRcC62dyRkU13jg 1 1 0 0 416b 208b
green open remote_statistics y_L3g4-CSK20LhhCiNBOUw 1 1 0 0 416b 208b
green open .apm-agent-configuration nye1dagFSu-zpVbONhNUEw 1 1 0 0 416b 208b
green open xgw vktPBq9oT3Kq9AfAXQdbBw 1 1 0 0 416b 208b
green open ddm f0m3nlU_TEq7dKWaXJaYuw 1 1 0 0 416b 208b
green open .kibana_1 iNSkCZbMRayodJUPPYWlZg 1 1 203 5 325kb 162.5kb
green open ue uKa9T5OzTRiv_0KmfSB_ow 1 1 0 0 416b 208b
green open .security-7 x82gxDW7SSmRXLO17FWnzg 1 1 36 0 222.8kb 111.4kb
green open .apm-custom-link -5kPJso5Sk27Nsnp_ytFcQ 1 1 0 0 416b 208b
green open in_carry_statistics VjZ-9z6URV2lFbdXWfHMcw 1 1 0 0 416b 208b
green open .kibana_task_manager_1 E1dhsSWxTkm_WCviifK3nw 1 1 5 2 105.8kb 52.9kb
green open kibana_sample_data_logs aAPoNjn3QKGDD1rTUKggow 1 1 14074 0 22.5mb 11.2mb
green open ddm_statistics ygju_d25RnKNuQkDIphP2A 1 1 0 0 416b 208b
green open network_statistics criLtztnTEyhOhjyN-ZAqQ 1 1 0 0 416b 208b
[root@quickstart-es-master-nodes-0 elasticsearch]# curl https://quickstart-es-master-nodes-0.quickstart-es-master-nodes.elastic-cluster:9200/_cat/indices -u 'elastic:l3t67679nIyV9MNy4rc4HVa1' -k
green open phy NT2oMsqsSdKx4W5_g7wfvQ 1 1 0 0 416b 208b
green open item Bp11ps_PTG6qvwSOV6My1Q 1 1 0 0 416b 208b
green open msgtrace nOIuwMUSRcC62dyRkU13jg 1 1 0 0 416b 208b
green open remote_statistics y_L3g4-CSK20LhhCiNBOUw 1 1 0 0 416b 208b
green open .apm-agent-configuration nye1dagFSu-zpVbONhNUEw 1 1 0 0 416b 208b
green open xgw vktPBq9oT3Kq9AfAXQdbBw 1 1 0 0 416b 208b
green open ddm f0m3nlU_TEq7dKWaXJaYuw 1 1 0 0 416b 208b
green open .kibana_1 iNSkCZbMRayodJUPPYWlZg 1 1 203 5 325kb 162.5kb
green open ue uKa9T5OzTRiv_0KmfSB_ow 1 1 0 0 416b 208b
green open .security-7 x82gxDW7SSmRXLO17FWnzg 1 1 36 0 222.8kb 111.4kb
green open .apm-custom-link -5kPJso5Sk27Nsnp_ytFcQ 1 1 0 0 416b 208b
green open in_carry_statistics VjZ-9z6URV2lFbdXWfHMcw 1 1 0 0 416b 208b
green open .kibana_task_manager_1 E1dhsSWxTkm_WCviifK3nw 1 1 5 2 105.8kb 52.9kb
green open kibana_sample_data_logs aAPoNjn3QKGDD1rTUKggow 1 1 14074 0 22.5mb 11.2mb
green open ddm_statistics ygju_d25RnKNuQkDIphP2A 1 1 0 0 416b 208b
green open network_statistics criLtztnTEyhOhjyN-ZAqQ 1 1 0 0 416b 208b
|