美国拟立法禁止科技巨头并购超过50亿美元,可直接否决
06-06
Oceanus 流计算简介 Oceanus 是大数据产品生态的实时分析工具。它基于Apache Flink构建,具有一站式开发、无缝连接、亚秒级延迟、低成本、安全稳定的企业级实时大数据分析平台。
流计算Oceanus旨在最大化企业数据的价值,加速企业实时数字化的建设进程。本文将详细介绍如何使用datagen连接器生成随机数据,通过流计算Oceanus,最终将计算后的数据存储在Elasticsearch中。
通过Flink生成数据并写入Elasticsearch。准备创建Oceanus集群。
有效的购买链接。 1元购买Oceanus集群。
进入Oceanus控制台,点击左侧【集群管理】,点击左上方【创建集群】。具体请参考Oceanus官方文档创建专属集群。
创建 Elasticsearch 集群。进入Elasticsearch控制台,点击左上角【新建】,创建Elasticsearch实例。
具体操作请参见创建Elasticsearch集群!创建Oceanus集群和Elasticsearch集群时选择的VPC必须是同一个VPC。Oceanus作业1.创建源代码语言:txt副本--Datagen Connector可以随机生成一些数据用于测试--参见TABLE random_source (f_sequence INT, f_random INT, f_random_str VARCHAR) WITH ('connector' = 'datagen', 'rows - per-second'='1', -- 每秒生成的数据项数量 'fields.f_sequence.kind'='sequence', -- 有界序列(结束后自动停止输出) 'fields.f_sequence.start' ='1', -- 序列的起始值 'fields.f_sequence.end'='0', -- 序列的结束值 'fields.f_random.kind'='random', -- 无界随机数'fields.f_random.min'='1', -- 随机数的最小值 'fields.f_random.max'='', -- 随机数的最大值 'fields.f_random_str.length'=' 10' -- 随机字符字符串的长度); 2、创建Sink代码语言:txt副本--Elasticsearch只能写成数据目的表(Sink)--参见 TABLE Student(`user_id` INT, `user_name` VARCHAR)WITH ('connector.type' = 'elasticsearch& #x27;, -- 输出到Elasticsearch 'connector.version' = '6', -- 指定Elasticsearch版本,如'6'、'7'。
注意必须与选择的内置Connector版本一致 'connector.hosts' = ' -- Elasticsearch的连接地址 'connector.index' = 'Student', -- Elasticsearch的索引名称 'connector.document-type' = ' Stu', -- Elasticsearch 的文档类型 'connector.username' = 'elastic' , -- 可选参数:请替换为实际的 Elasticsearch 用户名 'connector.password' = 'xxxxxxxxxx', -- 可选参数:请替换为实际的 Elasticsearch 密码 'update-mode' = 'append', -- 可选不带主键的 'append' 模式,或带主键的 'upsert' 模式 'connector.key-delimiter' = '$', -- 可选参数,复合主键的连接字符(默认为_符号,如key1_key2_key3) 'connector .key-null-literal' = 'n/a', -- 主键为null时的替换字符串,默认为'null' '连接器.failure-handler' = 'retry-rejected', -- 可选的错误处理可以选择'fail'(抛出异常)、'ignore'(忽略任何错误)、'retry-rejected'(重试)'connector .connection- max-retry-timeout' = '', -- 每个请求的最大超时时间(ms) 'format.type' = 'json' -- 输出数据格式,目前仅支持 'json'); 3、编写业务SQL代码语言:txt copy INSERT INTO StudentSELECT f_sequence AS user_id, f_random_str AS user_nameFROM random_source; 4、选择Connector,点击【作业参数】,在【内置连接器】中选择flink-connector-elasticsearch6,点击【保存】>【发布草稿】】运行作业。 ?新版本的Flink 1.13集群不需要用户选择内置的Connectors。
对于其他版本集群,请根据实际购买的Elasticsearch版本选择对应的Connector。 5、数据查询,进入Elasticsearch控制台,点击之前购买的Elasticsearch实例,点击右上角【Kibana】即可进入Kibana查询数据。
具体查询方法请参考通过Kibana访问集群 概要 本示例使用Datagen连接器随机生成数据,通过Oceanus实现最基本的数据转换功能,最后下沉到Elasticsearch中。用户无需提前在Elasticsearch中创建索引。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-18
06-08
06-18
06-18
最新文章
【玩转GPU】ControlNet初学者生存指南
【实战】获取小程序中用户的城市信息(附源码)
包雪雪简单介绍Vue.js:开学
Go进阶:使用Gin框架简单实现服务端渲染
线程池介绍及实际案例分享
JMeter 注释 18 - JMeter 常用配置组件介绍
基于Sentry的大数据权限解决方案
【云+社区年度征文集】GPE监控介绍及使用