亿信华辰文档中心>> 百科分类 >> 测试文档(产品帮助文档专用) >> 3.1.1 >> 数据集成

创建词条 "数据集成" 分类下的词条 该分类下有89个词条

ORACLE装卸载组件@
词条创建者:wxw     创建时间:05-14 10:05 编辑:0次 | 浏览:3次
标签:

摘要: 1. 组件概述Oracle 装载组件、卸载组件常常用于Oracle 数据库之间的大数据量的数据传输场景。项目上使用传统的表输入-表输出的形式针对大数据量的情况下,性能往往与预期相差较大。Ora[阅读全文:]

JSON 生成组件@
词条创建者:wxw     创建时间:05-14 10:03 编辑:0次 | 浏览:3次
标签:

摘要: 1. 概述Json生成组件故名思意就是讲已有的数据字段信息生成一个json串存储在临时表中,供后续组件或者系统的使用。目前json生成组件支持配置生成的json格式位数组、对象两种类型。jso[阅读全文:]

JSON解析组件@
词条创建者:wxw     创建时间:05-14 09:57 编辑:0次 | 浏览:4次
标签:

摘要: 1. 概述json解析组件可以从前置实时组件中读取到json格式的数据,然后将其解析成结构化数据,并向后置组件输出。 客户的一个接口返回的用户信息,姓名性别身份证家庭住址等等,这些信息是以JS[阅读全文:]

HTTP接口组件&WebService接口@
词条创建者:wxw     创建时间:05-14 09:53 编辑:0次 | 浏览:3次
标签:

摘要: 1. HTTP 接口组件1.组件介绍可调用数据源管理页面的接口数据源下的http格式的接口,读取接口返回结果,将结果保存到临时表的一个字段中,供后置组件使用。数据源:选择数据源下的一[阅读全文:]

HDFS组件@
词条创建者:wxw     创建时间:05-14 09:40 编辑:0次 | 浏览:3次
标签:

摘要: 1. HDFS文件输入组件hdfs输入组件是一个将hdfs服务器上的文件或压缩文件解析以供后续组件使用,从文本文件中读取数据到任务中,和表输入组件一样作为输入端。与平面文件输入不同的是hdfs[阅读全文:]

Hadoop文件输入组件@
词条创建者:wxw     创建时间:05-13 18:46 编辑:0次 | 浏览:3次
标签:

摘要: 1. 概述  Hadoop文件输入组件可将本地文本文件输出到Hadoop目标表,如cdh、impala、petabase等Hadoop文件输入组件,文件设置页面:源文件路径[阅读全文:]

Hadoop输出组件@
词条创建者:wxw     创建时间:05-13 18:40 编辑:0次 | 浏览:3次
标签:

摘要: 1. 概述将经过数据交换etl处理后的数据保存到大数据库impala或petabase等库中,和表输出组件一样作为输出端。 用户使用Hadoop输出组件,选择Hive和对应的表并选择不存在则创[阅读全文:]

Hadoop迁移组件@
词条创建者:wxw     创建时间:05-13 18:35 编辑:0次 | 浏览:3次
标签:

摘要: 1. 概述用户可以通过Hadoop迁移组件将关系型数据库中的数据批量导入到impala或petabase、hive等库中。2. 操作步骤前置条件:用户已部署HDFS服务器。 操作入口[阅读全文:]

Greenplum装载组件@
词条创建者:wxw     创建时间:05-13 18:28 编辑:0次 | 浏览:3次
标签:

摘要: 1. 组件介绍通过创建外部表方式读取第三方文件,将大数据量的表数据抽取到Greenplum目标库中。 Greenplum装载组件的目标设置中:1. 协议选项,下拉框有gpf[阅读全文:]

Greenplum卸载组件@
词条创建者:wxw     创建时间:05-13 18:21 编辑:0次 | 浏览:3次
标签:

摘要: 1. 概述数据交换组件支持Greenplum数据库表导出为文本文件。通过该方式可有效的提高Greenplum数据库的数据交换的效率。2. 操作步骤前置步骤:1.Liunx服务器或者w[阅读全文:]