亿信华辰文档中心>> 百科分类 >> 亿信ABI >> 5.6.1

创建词条 "5.6.1" 分类下的词条 该分类下有228个词条

Hadoop文件输入组件
词条创建者:wxw     创建时间:09-10 09:50 编辑:0次 | 浏览:125次
标签:

摘要: 1.概述Hadoop文件输入组件可将本地文本文件输出到Hadoop目标表,如cdh、impala、petabase等Hadoop文件输入组件,文件设置页面:源文件路径:配置产品服务器得文件路径。列分割符[阅读全文:]

Hadoop输出组件
词条创建者:wxw     创建时间:09-10 09:50 编辑:0次 | 浏览:166次
标签:

摘要: 1.概述将经过数据交换etl处理后的数据保存到大数据库impala或petabase等库中,和表输出组件一样作为输出端。 用户使用Hadoop输出组件,选择Hive和对应的表并选择不存在则创建[阅读全文:]

Hadoop迁移组件
词条创建者:wxw     创建时间:09-10 09:49 编辑:0次 | 浏览:178次
标签:

摘要: 1.概述用户可以通过Hadoop迁移组件将关系型数据库中的数据批量导入到impala或petabase、hive等库中。2.操作步骤前置条件:用户已部署HDFS服务器。操作入口:【任务管理>任务定[阅读全文:]

Greenplum装载组件
词条创建者:wxw     创建时间:09-10 09:48 编辑:0次 | 浏览:215次
标签:

摘要: 1.组件介绍通过创建外部表方式读取第三方文件,将大数据量的表数据抽取到Greenplum目标库中。 Greenplum装载组件的目标设置中:1.协议选项,下拉框有gpfdist和file协议,[阅读全文:]

Greenplum卸载组件
词条创建者:wxw     创建时间:09-10 09:46 编辑:0次 | 浏览:162次
标签:

摘要: 1.概述数据交换组件支持Greenplum数据库表导出为文本文件。通过该方式可有效的提高Greenplum数据库的数据交换的效率。2.操作步骤前置步骤:1.Liunx服务器或者windows服务器已部署[阅读全文:]

大数据引擎
词条创建者:wxw     创建时间:09-10 09:45 编辑:0次 | 浏览:209次
标签:

摘要: 批处理与交换任务部分组件支持spark大数据处理引擎,使用该引擎能够有效得提升海量数据的数据传输与数据处理的效率。用户新建批处理任务或者交换任务后,执行任务时选择Spark引擎作为计算引擎,程序将自动的[阅读全文:]

循环节点组件
词条创建者:wxw     创建时间:09-10 09:44 编辑:0次 | 浏览:185次
标签:

摘要: 1.组件介绍ETL任务流升级改造为调度平台后,去掉了任务循环功能,在ETL组件得流程组件中新增循环节点组件,实现数据处理的循环和遍历功能。循环节点组件支持对ETL任务中支持现有组件得嵌套。基本配置:循环[阅读全文:]

文件生成组件
词条创建者:wxw     创建时间:09-10 09:42 编辑:0次 | 浏览:228次
标签:

摘要: 交换任务-文件传输组件新增一个文件生成组件。支持将表字段类型为大字段和二进制类型的数据输出为文件,每一行生成一个文件。输出支持文本、excel文件、图片、视频等。后缀支持:txt、doc、docx、js[阅读全文:]

批量交换组件
词条创建者:wxw     创建时间:09-10 09:41 编辑:0次 | 浏览:188次
标签:

摘要: 批量交换到表组件,选择一个或者多个连接池下的表,将其批量设置表名后交换到另外一个数据库中。  【操作步骤】基本设置:1.源表的设置可以选择不同数据库的多张数据库表,支持表名模糊搜索与[阅读全文:]

输入输出组件
词条创建者:wxw     创建时间:09-10 09:40 编辑:0次 | 浏览:200次
标签:

摘要: 1.表输入组件表输入组件用于从数据库连接池中选择源表进行数据的抽取,作为后续组件的数据来源。时间戳增量(改名为主键+时间戳增量)它是一种基于快照比较的变化数据捕获方式,在源表上增加一个时间戳字段,业务系[阅读全文:]