UNIS DataEngine DI数据集成引擎内嵌多种可视化数据处理引擎,运用分布式流数据处理技术,为用户提供高效便捷的数据抽取、清洗、转换、加载等功能。完成数据库数据、文本数据、日志数据、设备数据和互联网数据从数据源向目标数据仓库无缝集成和转化的任务,让用户不再花费大量时间精力在底层数据传输、处理的技术细节上。
UNIS DataEngine DI数据集成引擎
简单、易用
- 提供简洁友好的Web操作界面,摒弃传统工具的笨重操作模式。
- 基于JAVA开发,实现跨平台操作,对上层提供封装完善的ETL工具集,大大降低数据集成工作量。
- 统一的Web操作平台,可实现数据集成的任务管理、发布、调度、监控等功能。
- 对于常用配置资源做到一次配置,任意使用,提高数据集成效率。
高性价比
- 低成本:无需部署专用的ETL服务器,充分利用现有硬件资源。
- 高性能:分布式ETL引擎,大幅提高ETL效率,尤其适用于大数据量的并行处理,且性能随着数据集成引擎节点的扩展可以得到线性提升。
集成UNIS DataEngine大数据平台的能力
- 无缝衔接大数据平台,通过高效的工作流引擎,实现对大 数据平台数据集成任务的编排和执行。
- 优化Hive、HBase、Storm、Kafka等组件的兼容性和稳定性,提升数据并行处理能力和加载速度。
数据集成引擎与UNIS DataEngine大数据平台
云化ETL
云化ETL
- 将ETL工具Web化、任务云化,并下发到集群各个节点,分布式运行;充分发挥集群资源,实现负载均衡,大幅提高ETL速率。
- 系统内置的大量常用ETL过程模板和用户自定义模板,可以简化用户数据集成操作,提升工作效率。
- 创新型的作业和作业模板管理,可创建多个ETL任务,根据不同的条件触发多个关联的执行任务。同时可将已创建的作业模板应用到新的ETL作业中。
作业管理
- 数据集成引擎提供多类型数据库连接,丰富的ETL组件,支持多种数据抽取、转换以及加载模式。
- 支持大数据平台适配,提供Hive、HBase、HDFS、MongoDB、MPP等数据源的适配和集成工具。
- 多源数据类型适配,提供Oracle、SQLServer、MySQL、DB2、Sybase、Informix、PostgreSQL、Txt、Excel、XML、CSV、Access等数据源的适配访问组件,并可将任务分布式运行于多个集群节点。
数据集成设计器
数据集成设计器用于描述源数据格式、目标数据格式以及数据集成流程。UNIS DataEngine DI数据集成引擎的设计器提供批量更新和直观、易用的设计导航,简化了数据加载和转换等高级特性的实施步骤,缩短了实施时间,实现一站式数据处理模型设计。这样,用户可以集中精力描述工作的内容,而非工作方法,显著提高数据集成的效率。
元数据管理
作为UNISDataEngineDI数据集成引擎的重要功能,元数据管理能够为数据集成建立一套数据资料库,存储治理范围内的数据定义、来源、转换关系、目标、质量等级、依赖关系、安全权限等。进而帮助人们更好的理解数据,发现和描述数据的来龙去脉,形成清晰直观的数据流图,实现数据管控。
此外,通过元数据管理,实现统一数据口径、标明数据方位、分析数据关系、管理模型变更。从而更加有效的发掘和利用信息资产的价值,实现精准高效的分析和决策,推进系统变更管理,降低项目风险。
任务调度中心
用户可在数据集成引擎选择已存的模板进行任务创建,也可对现有任务进行定制化修改实现任务创建,并可对正在执行的任务甚至历史任务进行监控管理,能在任务出错时通过预定义方式告知用户任务失败。从而完善任务管理与监控体系,提升数据集成的可靠性。
任务调度管理
- 提供统一、友好的管理界面,通过此管理平台,只需通过简单的操作,用户即可设置环境、导出和导入数据库、管理运行操作、监视会话、诊断错误以及生成报告。
- 管理平台还提供强大的作业调度以及管控能力,使得数据处理更加业务化、可视化,使得信息化部门可以更加方便、全面地了解数据处理模型的运行情况,有助于迅速定位和排除故障,并为及时主动地采取业务优化措施提供了可能性。
- 支持用户细粒度的权限管理,包括功能访问权限和数据操作权限,实现精细化的数据传输管理,保障数据安全。
- 支持可视化多角度作业运行监控,提供统计报表展示,进而知悉数据传输的实时状态,对于优化提升数据集成的质量和效率具有极大的帮助。
运行任务统计报表展示