摘要: 1.循环节点组件ETL任务流升级改造为调度平台后,去掉了任务循环功能,在ETL组件得流程组件中新增循环节点组件,实现数据处理的循环和遍历功能。循环节点组件支持对ETL任务中支持现有组件得嵌套[阅读全文:]
摘要: 批处理与交换任务部分组件支持spark大数据处理引擎,使用该引擎能够有效得提升海量数据的数据传输与数据处理的效率。用户新建批处理任务或者交换任务后,执行任务时选择Spark引擎作为计算引擎,程序将自动的[阅读全文:]
摘要: 1.组件介绍本章节主要介绍了如何使用边缘采集输入输出组件实时采集服务器上的日志数据。前提条件1、需要提前在采集服务器上安装边缘节点程序。2、在使用边缘采集输入输出组件前,需要配置边缘节点的IP地址和端口[阅读全文:]
摘要: 1.前置步骤1.需要提前对原数据库的环境进行操作配置。目前支持的四种数据库。分别为ORACLR,MYSQL,SQLSERVER,POSTGRESQL. 详情参考数据库表配置。2.在进行CDC同步的过程中[阅读全文:]
摘要: 1.前置步骤需提前部署kafka服务器,并且在产品服务器的kafka数据源中新建同一套生产开发kafka数据源连接池。如图,两数据源除适用环境不一致,其余的配置都是一样的。如果没有配置配套的kafka生[阅读全文:]
摘要: 1.应用背景实时json解析组件可以从前置实时组件中读取到json格式的数据,然后将其解析成结构化数据,并向后置组件输出。 客户的一个接口返回的用户信息,姓名性别身份证家庭住址等等,这些信息是以JSON[阅读全文:]
摘要: 1.作用数据集成是我公司自主研发的具有独立自主知识产权、业界领先的企业级数据整合交换平台。可提供增量和全量数据抽取、传输、交换、同步以及整合的一站式解决方案。用于全面支撑数据服务平台、数据中台、数据治理[阅读全文:]
摘要: 1.创建ETL任务流ETL任务流用于完成ETL任务的前驱后继关系和调度顺序的定义。本文通过一个简单示例讲解如何创建ETL任务流。【操作步骤】这里我们已经创建好了名为【个人周报】和【员工请假】的ETL任务[阅读全文:]