亿信华辰文档中心>> 百科分类 >> 睿码主数据 >> 2.7.3 >> 数据集成

创建词条 "数据集成" 分类下的词条 该分类下有89个词条

循环节点组件
词条创建者:liuyishou     创建时间:05-22 11:22 编辑:3次 | 浏览:930次
标签:

摘要:  1.循环节点组件ETL任务流升级改造为调度平台后,去掉了任务循环功能,在ETL组件得流程组件中新增循环节点组件,实现数据处理的循环和遍历功能。循环节点组件支持对ETL任务中支持现有组件得嵌套[阅读全文:]

大数据引擎
词条创建者:liuyishou     创建时间:05-22 11:35 编辑:1次 | 浏览:648次
标签:

摘要: 批处理与交换任务部分组件支持spark大数据处理引擎,使用该引擎能够有效得提升海量数据的数据传输与数据处理的效率。用户新建批处理任务或者交换任务后,执行任务时选择Spark引擎作为计算引擎,程序将自动的[阅读全文:]

边缘采集组件
词条创建者:liuyishou     创建时间:06-05 11:25 编辑:1次 | 浏览:327次
标签:

摘要: 1.组件介绍本章节主要介绍了如何使用边缘采集输入输出组件实时采集服务器上的日志数据。前提条件1、需要提前在采集服务器上安装边缘节点程序。2、在使用边缘采集输入输出组件前,需要配置边缘节点的IP地址和端口[阅读全文:]

实时CDC日志单表同步组件
词条创建者:liuyishou     创建时间:05-30 11:02 编辑:2次 | 浏览:416次
标签:

摘要: 1.前置步骤1.需要提前对原数据库的环境进行操作配置。目前支持的四种数据库。分别为ORACLR,MYSQL,SQLSERVER,POSTGRESQL. 详情参考数据库表配置。2.在进行CDC同步的过程中[阅读全文:]

KAFKA生产消费组件
词条创建者:liuyishou     创建时间:05-30 10:40 编辑:3次 | 浏览:878次
标签:

摘要: 1.前置步骤需提前部署kafka服务器,并且在产品服务器的kafka数据源中新建同一套生产开发kafka数据源连接池。如图,两数据源除适用环境不一致,其余的配置都是一样的。如果没有配置配套的kafka生[阅读全文:]

JSON解析组件
词条创建者:liuyishou     创建时间:05-21 17:04 编辑:1次 | 浏览:468次
标签:

摘要: 1.应用背景实时json解析组件可以从前置实时组件中读取到json格式的数据,然后将其解析成结构化数据,并向后置组件输出。 客户的一个接口返回的用户信息,姓名性别身份证家庭住址等等,这些信息是以JSON[阅读全文:]

了解数据集成
词条创建者:huxiaojie     创建时间:07-03 09:48 编辑:1次 | 浏览:258次
标签:

摘要: 1.作用数据集成是我公司自主研发的具有独立自主知识产权、业界领先的企业级数据整合交换平台。可提供增量和全量数据抽取、传输、交换、同步以及整合的一站式解决方案。用于全面支撑数据服务平台、数据中台、数据治理[阅读全文:]

创建ETL任务流
词条创建者:liuyishou     创建时间:05-22 16:24 编辑:1次 | 浏览:1108次
标签:

摘要: 1.创建ETL任务流ETL任务流用于完成ETL任务的前驱后继关系和调度顺序的定义。本文通过一个简单示例讲解如何创建ETL任务流。【操作步骤】这里我们已经创建好了名为【个人周报】和【员工请假】的ETL任务[阅读全文:]

主题表输出组件
词条创建者:liuyishou     创建时间:06-05 18:00 编辑:0次 | 浏览:237次
标签:

摘要: 题表输出组件和表输出组件一样,也是作为输出端,目标组件。界面设置基本一样,不同的是主题表输出是输出到主题表的。主题表输出的更新方式可参考表输出。注意:主题表输出组件支持将字段注释一起输出到目标表中。具体[阅读全文:]

输入输出组件
词条创建者:liuyishou     创建时间:05-21 17:54 编辑:1次 | 浏览:540次
标签:

摘要: 1.表输入组件表输入组件用于从数据库连接池中选择源表进行数据的抽取,作为后续组件的数据来源。时间戳增量(改名为主键+时间戳增量)它是一种基于快照比较的变化数据捕获方式,在源表上增加一个时间戳字段,业务系[阅读全文:]

 共89条 123456789››