数据流让你可以跨多个索引存储仅追加(append-only)的时间序列数据,同时为你提供一个用于请求的命名资源。 数据流非常适合日志、事件、指标和其他持续生成的数据。
你可以将索引和搜索请求直接提交到数据流。 流自动将请求路由到存储流数据的后备(backing indices)索引。 你可以使用索引生命周期管理 (ILM) 来自动管理这些后备索引。 例如,你可以使用 ILM 自动将较旧的支持索引移动到更便宜的硬件并删除不需要的索引。 随着数据的增长,ILM 可以帮助您降低成本和开销。
数据流由一个或多个隐藏的(索引名字由 . 开始的)、自动生成的支持索引组成。
数据流需要匹配的索引模板。 该模板包含用于配置流的支持索引的映射和设置。
每个索引到数据流的文档都必须包含一个 @timestamp 字段,映射为 date 或 date_nanos 字段类型。 如果索引模板没有为 @timestamp 字段指定映射,Elasticsearch 将 @timestamp 映射为具有默认选项的日期字段。
同一个索引模板可以用于多个数据流。 你不能删除数据流正在使用的索引模板。
当你向数据流提交读取请求时,该流会将请求路由到其所有后备索引。
最近创建的后备索引是数据流的写入索引。 流仅将新文档添加到此索引。
你不能将新文档添加到其他后备索引中,即使直接向索引发送请求也是如此。
你也不能对可能阻碍索引的写入索引执行如下的操作,例如:
Rollover,也即滚动。滚动创建一个新的后备索引,成为流的新写入索引。
我们建议使用 ILM 在写入索引达到指定的年龄或大小时自动滚动数据流。 如果需要,你还可以手动滚动数据流。有关 rollover 的文章,你可以阅读 “Elasticsearch: rollover API”。
每个数据流都跟踪它的 generation:一个六位数的零填充整数,从 000001 开始充当流滚动的累积计数。
创建后备索引时,使用以下约定命名索引:
.ds-<data-stream>-<yyyy.MM.dd>-<generation>
某些操作,例如 shrink 或 restore,可以更改后备索引的名称。 这些名称更改不会从其数据流中删除后备索引。
数据流专为现有数据很少(如果有的话)更新的用例而设计。 你不能将现有文档的更新或删除请求直接发送到数据流。 相反,使用查询更新和查询 API 删除。有关如何更新或查询 API 删除文档,请参考我的另外一篇文章 “开始使用 Elasticsearch (1)”。
如果需要,你可以通过直接向文档的后备索引提交请求来更新或删除文档。
提示:如果你经常更新或删除现有时间序列数据,请使用带有写入索引的索引别名而不是数据流。 请参阅管理没有数据流的时间序列数据。
要设置数据流,请执行以下步骤:
重要:如果你使用 Fleet 或 Elastic Agent,请跳过本教程。 Fleet 和 Elastic Agent 为你设置数据流。 请参阅 Fleet 的数据流文档。
在下面的介绍中,我将一一介绍。
虽然是可选的,但我们建议使用 ILM 来自动管理数据流的支持索引。 ILM 需要索引生命周期策略。
我们可以参考文章 “Elasticsearch:使用 docker compose 来实现热温冷架构的 Elasticsearch 集群” 来搭建具有热,温及冷层架构的 Elasticsearch 集群。
要在 Kibana 中创建索引生命周期策略,请打开主菜单并转到 Stack Management > Index Lifecycle Policies。 单击 Create policy。你可以阅读文章 “Elastic:Data stream 在索引生命周期管理中的应用” 以了解更多。
在上面我们配置了 hot phase,warm phase 及 Delete phase。Delete phase 需要在 warm phase 里选择删除才可以出现。需要注意的一点是数据的年龄是根据 rollover 发生的时间来定的。
点击 Save policy 按钮。这样我们就创建一个叫做 my-lifecycle-policy 的索引生命周期策略。我们可以使用如下的命令来查看:
GET _ilm/policy/my-lifecycle-policy
- {
- "my-lifecycle-policy": {
- "version": 1,
- "modified_date": "2022-11-17T06:27:16.429Z",
- "policy": {
- "phases": {
- "warm": {
- "min_age": "0d",
- "actions": {
- "allocate": {
- "number_of_replicas": 0,
- "include": {},
- "exclude": {},
- "require": {}
- },
- "forcemerge": {
- "max_num_segments": 1
- },
- "set_priority": {
- "priority": 50
- },
- "shrink": {
- "number_of_shards": 1
- }
- }
- },
- "hot": {
- "min_age": "0ms",
- "actions": {
- "rollover": {
- "max_primary_shard_size": "50gb",
- "max_age": "30d",
- "max_docs": 5,
- "max_primary_shard_docs": 5
- },
- "set_priority": {
- "priority": 204
- }
- }
- },
- "delete": {
- "min_age": "3m",
- "actions": {
- "delete": {
- "delete_searchable_snapshot": true
- }
- }
- }
- }
- },
- "in_use_by": {
- "indices": [],
- "data_streams": [],
- "composable_templates": []
- }
- }
从上面的定义中我们可以看出来, 当 hot 节点里的索引满足如下的任何一个条件:
Rollover 都会发生。Elasticsearch 会自动按照一定的时间间隔来检查 rollover 是否发生。这个时间是由参数 indices.lifecycle.poll_interval 来决定的。我们可以在地址找到这个参数的设置。在默认的情况下,这个参数是10分钟的时间。在实验的环境中,为了能够尽快地看到 rollover 事件的发生,我们可以修改这个参数:
- PUT _cluster/settings
- {
- "transient": {
- "indices.lifecycle.poll_interval": "10s"
- }
- }
上面表明 Elasticsearch 每隔10秒钟进行查询,并执行 ILM policy。
你还可以使用创建生命周期策略 API。
- PUT _ilm/policy/my-another-lifecycle-policy
- {
- "policy": {
- "phases": {
- "hot": {
- "actions": {
- "rollover": {
- "max_primary_shard_size": "50gb"
- }
- }
- },
- "warm": {
- "min_age": "30d",
- "actions": {
- "shrink": {
- "number_of_shards": 1
- },
- "forcemerge": {
- "max_num_segments": 1
- }
- }
- },
- "cold": {
- "min_age": "60d",
- "actions": {
- "searchable_snapshot": {
- "snapshot_repository": "found-snapshots"
- }
- }
- },
- "frozen": {
- "min_age": "90d",
- "actions": {
- "searchable_snapshot": {
- "snapshot_repository": "found-snapshots"
- }
- }
- },
- "delete": {
- "min_age": "735d",
- "actions": {
- "delete": {}
- }
- }
- }
- }
- }
在上面的 rollover 中,我们定义了当 primary shard 的大小超过 50G 的时候,rollover 会发生。我们甚至可以增加其它的一些条件比如:
- "rollover" : {
- "max_size" : "50gb",
- "max_age" : "30d",
- "max_docs" : 5
- }
当它满足如下的任何一个条件:
rollover 就会自动发生。
数据流需要匹配的索引模板。 在大多数情况下,你使用一个或多个组件模板来编写此索引模板。 你通常使用单独的组件模板进行映射和索引设置。 这使你可以在多个索引模板中重用组件模板。
创建组件模板时,包括:
提示:映射字段时使用 Elastic Common Schema (ECS)。 ECS 字段默认与多个 Elastic Stack 功能集成。
如果你不确定如何映射你的字段,请使用运行时字段(runtime fields)在搜索时从非结构化内容中提取字段。 例如,你可以将日志消息索引到通配符(wildcard)字段,然后在搜索期间从该字段中提取 IP 地址和其他数据。
要在 Kibana 中创建组件模板,请打开主菜单并转到 Stack Management > Index Management。 在 Index Templates 视图中,单击 Create component template。
如果你想了解详细如何操作,请阅读我的另外一篇文章 “Elasticsearch:可组合的 Index templates - 7.8 版本之后”。
你还可以使用创建组件模板 API。
- # Creates a component template for mappings
- PUT _component_template/my-mappings
- {
- "template": {
- "mappings": {
- "properties": {
- "@timestamp": {
- "type": "date",
- "format": "date_optional_time||epoch_millis"
- },
- "message": {
- "type": "wildcard"
- }
- }
- }
- },
- "_meta": {
- "description": "Mappings for @timestamp and message fields",
- "my-custom-meta-field": "More arbitrary metadata"
- }
- }
-
- # Creates a component template for index settings
- PUT _component_template/my-settings
- {
- "template": {
- "settings": {
- "index.lifecycle.name": "my-lifecycle-policy"
- }
- },
- "_meta": {
- "description": "Settings for ILM",
- "my-custom-meta-field": "More arbitrary metadata"
- }
- }
在上面,创建了 settings 及 mappings 的组件模板。当然,我们甚至可以创建自己的 alias 组件模板。
使用你的组件模板创建索引模板。 指定:
要在 Kibana 中创建索引模板,请打开主菜单并转到 Stack Management > Index Management。 在 Index Templates 视图中,单击 Create Template。
你还可以使用创建索引模板 API。 包含 data_stream 对象以启用数据流。
- PUT _index_template/my-index-template
- {
- "index_patterns": ["my-data-stream*"],
- "data_stream": { },
- "composed_of": [ "my-mappings", "my-settings" ],
- "priority": 500,
- "_meta": {
- "description": "Template for my time series data",
- "my-custom-meta-field": "More arbitrary metadata"
- }
- }
如果我们想知道最终的 index template 是什么样子的,你可以阅读我的另外一篇文章 “Elasticsearch:Simulate index API”。
POST /_index_template/_simulate_index/my-data-stream1
由于上面的 my-data-stream1 名字符合在上面的 my-index-template 中定义的 index pattern,所以它将模拟出来这个索引所将要具有的配置,尽管上面的命令不生成任何实质的索引。上面的命令返回的结果为:
- {
- "template": {
- "settings": {
- "index": {
- "lifecycle": {
- "name": "my-lifecycle-policy"
- },
- "routing": {
- "allocation": {
- "include": {
- "_tier_preference": "data_hot"
- }
- }
- }
- }
- },
- "mappings": {
- "properties": {
- "@timestamp": {
- "type": "date",
- "format": "date_optional_time||epoch_millis"
- },
- "message": {
- "type": "wildcard"
- }
- }
- },
- "aliases": {}
- },
- "overlapping": []
- }
索引请求将文档添加到数据流中。 这些请求必须使用 op_type create。 文档必须包含一个@timestamp 字段。
要自动创建数据流,请提交以流名称为目标的索引请求。 此名称必须与你的索引模板的索引模式之一相匹配。
- PUT my-data-stream/_bulk
- { "create":{ } }
- { "@timestamp": "2099-05-06T16:21:15.000Z", "message": "192.0.2.42 - - [06/May/2099:16:21:15 +0000] \"GET /images/bg.jpg HTTP/1.0\" 200 24736" }
- { "create":{ } }
- { "@timestamp": "2099-05-06T16:25:42.000Z", "message": "192.0.2.255 - - [06/May/2099:16:25:42 +0000] \"GET /favicon.ico HTTP/1.0\" 200 3638" }
-
- POST my-data-stream/_doc
- {
- "@timestamp": "2099-05-06T16:21:15.000Z",
- "message": "192.0.2.42 - - [06/May/2099:16:21:15 +0000] \"GET /images/bg.jpg HTTP/1.0\" 200 24736"
- }
你还可以使用创建数据流 API 手动创建流。 流的名称仍必须与模板的索引模式之一相匹配。
PUT _data_stream/my-data-stream
使用索引权限来控制对数据流的访问。 授予对数据流的权限会授予对其后备索引的相同权限。
有关示例,请参阅数据流权限。比如,一个用户被授予对 my-data-stream 的读取权限。
- {
- "names" : [ "my-data-stream" ],
- "privileges" : [ "read" ]
- }
例如,my-data-stream 包含两个后备索引:.ds-my-data-stream-2099.03.07-000001 和 .ds-my-data-stream-2099.03.08-000002。因为用户被自动授予对流的后备索引的相同权限,所以用户可以直接从 .ds-my-data-stream-2099.03.08-000002 检索文档:
GET .ds-my-data-stream-2099.03.08-000002/_doc/2
稍后 my-data-stream 滚动。 这将创建一个新的支持索引:.ds-my-data-stream-2099.03.09-000003。 因为用户仍然拥有my-data-stream 的读取权限,所以用户可以直接从.ds-my-data-stream-2099.03.09-000003中获取文档:
GET .ds-my-data-stream-2099.03.09-000003/_doc/2
我们可以在创建 role 时,指定索引的权限:
在 Elasticsearch 7.9 之前,你通常会使用带有写入索引的索引别名来管理时间序列数据。你可以阅读文章 “Elasticsearch:Index 生命周期管理入门” 以了解更多。 数据流取代了此功能,需要更少的维护,并自动与数据层集成。
要将具有写入索引的索引别名转换为具有相同名称的数据流,请使用迁移到数据流 API。 在转换期间,别名的索引成为流的隐藏后备索引。 别名的写索引成为流的写索引。 该流仍然需要启用数据流的匹配索引模板。
POST _data_stream/_migrate/my-time-series-data
要获取有关 Kibana 中数据流的信息,请打开主菜单并转到 Stack Management > Index Management。 在 Data Streams 视图中,单击数据流的名称。
你还可以使用获取数据流 API。
GET _data_stream/my-data-stream
要在 Kibana 中删除数据流及其后备索引,请打开主菜单并转到 Stack Management > Index Management。 在 Data Streams 视图中,单击垃圾桶图标。 仅当您拥有数据流的 delete_index 安全权限时才会显示该图标。
你还可以使用删除数据流 API。
DELETE _data_stream/my-data-stream
在我接下来的文章 “Elasticsearch:Data streams(二)” 里,我会详细来描述如和使用一个 data stream。