摘要: 1. HDFS文件输入组件hdfs输入组件是一个将hdfs服务器上的文件或压缩文件解析以供后续组件使用,从文本文件中读取数据到任务中,和表输入组件一样作为输入端。与平面文件输入不同的是hdfs[阅读全文:]
摘要: 1. 概述 Hadoop文件输入组件可将本地文本文件输出到Hadoop目标表,如cdh、impala、petabase等Hadoop文件输入组件,文件设置页面:源文件路径[阅读全文:]
摘要: 1. 概述将经过数据交换etl处理后的数据保存到大数据库impala或petabase等库中,和表输出组件一样作为输出端。 用户使用Hadoop输出组件,选择Hive和对应的表并选择不存在则创[阅读全文:]
摘要: 1. 概述用户可以通过Hadoop迁移组件将关系型数据库中的数据批量导入到impala或petabase、hive等库中。2. 操作步骤前置条件:用户已部署HDFS服务器。 操作入口[阅读全文:]
摘要: 1. 组件介绍通过创建外部表方式读取第三方文件,将大数据量的表数据抽取到Greenplum目标库中。 Greenplum装载组件的目标设置中:1. 协议选项,下拉框有gpf[阅读全文:]
摘要: 1. 概述数据交换组件支持Greenplum数据库表导出为文本文件。通过该方式可有效的提高Greenplum数据库的数据交换的效率。2. 操作步骤前置步骤:1.Liunx服务器或者w[阅读全文:]
摘要: Xml解析组件可以从前置组件中读取到xml格式的数据,然后将其解析成结构化数据,并向后置组件输出。 客户的一个接口返回的书本信息,书名,类型,出版社等等,这些信息是以xml的形式返回的,可以通过时xml[阅读全文:]
摘要: 1. 基本功能说明行转列功能主要用于将数据表中的行数据转换为列数据,以便于分析和展示。例如,在某些场景下,用户希望将多个行值转换为不同的列字段,以满足特定的报表或分析需求。在【数据整合】-【设[阅读全文:]