亿信华辰文档中心>> 百科分类 >> 睿码主数据 >> 2.7.3 >> 数据集成 >> 数据整合

创建词条 "数据整合" 分类下的词条 该分类下有41个词条

HTTP接口组件&WebService接口
词条创建者:liuyishou     创建时间:06-05 15:19 编辑:0次 | 浏览:1760次
标签:

摘要: 1.HTTP 接口组件1.组件介绍可调用数据源管理页面的接口数据源下的http格式的接口,读取接口返回结果,将结果保存到临时表的一个字段中,供后置组件使用。数据源:选择数据源下的一个接口数据源[阅读全文:]

HDFS组件
词条创建者:liuyishou     创建时间:06-05 15:05 编辑:0次 | 浏览:343次
标签:

摘要: 1.HDFS文件输入组件hdfs输入组件是一个将hdfs服务器上的文件或压缩文件解析以供后续组件使用,从文本文件中读取数据到任务中,和表输入组件一样作为输入端。与平面文件输入不同的是hdfs文件输入组件[阅读全文:]

Hadoop文件输入组件
词条创建者:liuyishou     创建时间:06-05 14:57 编辑:0次 | 浏览:341次
标签:

摘要: 1.概述Hadoop文件输入组件可将本地文本文件输出到Hadoop目标表,如cdh、impala、petabase等Hadoop文件输入组件,文件设置页面:源文件路径:配置产品服务器得文件路径。列分割符[阅读全文:]

Hadoop输出组件
词条创建者:liuyishou     创建时间:06-05 14:52 编辑:0次 | 浏览:440次
标签:

摘要: 1.概述将经过数据交换etl处理后的数据保存到大数据库impala或petabase等库中,和表输出组件一样作为输出端。 用户使用Hadoop输出组件,选择Hive和对应的表并选择不存在则创建[阅读全文:]

Hadoop迁移组件
词条创建者:liuyishou     创建时间:06-05 14:34 编辑:0次 | 浏览:323次
标签:

摘要: 1.概述用户可以通过Hadoop迁移组件将关系型数据库中的数据批量导入到impala或petabase、hive等库中。2.操作步骤前置条件:用户已部署HDFS服务器。操作入口:【任务管理>任务定[阅读全文:]

Greenplum装载组件
词条创建者:liuyishou     创建时间:06-05 14:27 编辑:0次 | 浏览:367次
标签:

摘要: 1.组件介绍通过创建外部表方式读取第三方文件,将大数据量的表数据抽取到Greenplum目标库中。 Greenplum装载组件的目标设置中:1.协议选项,下拉框有gpfdist和file协议,[阅读全文:]

Greenplum卸载组件
词条创建者:liuyishou     创建时间:06-05 13:59 编辑:0次 | 浏览:437次
标签:

摘要: 1.概述数据交换组件支持Greenplum数据库表导出为文本文件。通过该方式可有效的提高Greenplum数据库的数据交换的效率。2.操作步骤前置步骤:1.Liunx服务器或者windows服务器已部署[阅读全文:]

新建实时任务
词条创建者:liuyishou     创建时间:06-05 11:51 编辑:0次 | 浏览:405次
标签:

摘要: 实时任务中数据库表既可以作为输入源,也可以作为输出源。用户设计实时任务,拖入输入组件和处理组件以及表输出组件,然后配置好输入组件信息,处理组件处理逻辑以 及表输出组件连接池和目标表及加载方式,保存后启动[阅读全文:]

新建ETL任务
词条创建者:liuyishou     创建时间:06-05 11:46 编辑:0次 | 浏览:340次
标签:

摘要: 打开设计区的ETL任务列表,点击【新建】,选择任务类型,进入ETL任务设计器。添加表输入组件:根据需求,我们要对数据库中的表进行ETL,将IGRZB_B0作为输入表。【表输入】组件支持选择任意接入的连接[阅读全文:]

文件传输组件
词条创建者:liuyishou     创建时间:05-22 11:09 编辑:0次 | 浏览:1481次
标签:

摘要: 交换任务-文件传输组件新增一个文件生成组件。支持将表字段类型为大字段和二进制类型的数据输出为文件,每一行生成一个文件。输出支持文本、excel文件、图片、视频等。后缀支持:txt、doc、docx、js[阅读全文:]

 共41条 ‹‹12345››