实时数据融合平台

DataPipeline企业级实时数据融合平台通过多种实时数据技术协助用户构建以业务目标为导向的数据链路,支持广泛的数据节点类型,按需快速定制、部署、执行数据任务。DataPipeline实时数据产品矩阵利用实时数据融合打破技术壁垒,让客户专注数据价值释放。不仅支持数据迁移,应用

服务商信息:北京数见科技有限公司
开票主体:北京数见科技有限公司
支付方式:License
商品图片
商品详情
商品亮点
  • 数据全面准确:支持主流的关系型数据库、大数据平台、国产数据库、NoSQL及文件系统;
  • 管理敏捷智能:产品抽象为“数据节点、数据链路、融合任务及系统资源”四个基本逻辑,0代码构建采集平台;
  • 链路稳定高容错:所有组件均支持高可用,容器化部署,平滑、灵活的动态扩缩容;
  • 可视化运维与监控:实时监控企业上下游数据变化与异常情况,打造数据融合的 “管理驾驶舱”。
商品参数
交付方式
License
交付SLA
5自然日
服务监管
如您购买涉及服务监管的商品,您应在购买后进入买家中心提交需求并及时验收
涉及
开票主体
北京数见科技有限公司
操作系统
Linux
版本
V3.1
上架日期
2021-09-06
所属类别
管理与监控
商品说明

DataPipeline实时数据产品矩阵利用实时数据融合打破技术壁垒,让客户专注数据价值释放。不仅支持数据迁移,应用数据集成,主数据管理,业务分析,ETL和数据质量等数据应用场景的数据获取与集成,同时它还提供将实时数据加载到ODS或者数据仓库中,帮助企业增强业务敏捷性和关键报表时效性的卓越能力。除了支撑传统数据应用场景,DataPipeline实时数据融合还可以直接将数据分发到Apache Kafka,Hive及HDFS等大数据平台,支撑企业的事件驱动营销、大数据分析及业务数据交换等各类场景。同时作为企业级数据服务平台与实时异常检测平台的数据支撑,DataPipeline实时数据融合与DataPipeline实时数据服务、DataPipeline实时异常检测无缝集成。


DataPipeline实时数据融合通过多种实时数据技术,支持广泛的数据节点类型,协助客户构建以业务目标为导向的数据链路,按需快速定制、部署、执行数据任务,以支持从传统数据处理到实时数据应用的各类场景,这包括:


Oracle、MySQL、Microsoft SQL Server、PostgreSQL等关系型数据库管理系统(RDBMS)作为数据目的地,例如数据仓库,ODS或跨应用集成等场景;
Redis、MongoDB等NoSQL数据库作为数据目的地,例如互联网应用等需要快速迭代的场景;
Hive或Kafka集群作为数据目的地,例如企业级大数据平台和企业级信息总线场景;
TiDB、GaussDB等国产化数据库作为目的地的数据迁移场景;
以上各类数据节点的云版本;

使用最全最快最准的数据作为算法输入与决策依据


DataPipeline实时数据融合支持数十种主流数据库作为数据节点,打破企业域内各类异构数据技术构成的樊篱,让存储在不同类型数据节点中的数据随需可得;采用基于日志的增量数据获取技术(Log-based change data capture),为主数据管理、数据仓库、大数据平台提供实时、准确的数据变化,从而使得客户可以根据最新数据进行运营管理与决策制定;支持一对多数据分发,针对数据分发、外部数据管理等场景,确保整个企业使用的数据准确、可靠、一致。


Oracle,通过特有增量数据采集代理读取数据库日志获取准确的增量数据,同时也支持LogMiner方式;
MySQL,通过Binlog方式获取准确的增量数据;
Microsoft SQL Server,支持CT与CDC两种增量数据获取模式;
PostgreSQL,支持通过wal2json解析日志获取准确的增量数据;
IBM DB2,支持通过集成IBM CDC Replication Engine for DB2解析日志获取准确的增量数据;
 


使用分层管理按需服务的配置型平台来提升IT敏捷开发效率
DataPipeline实时数据融合将数据节点注册、数据链路配置、数据任务构建、系统资源分配等各个环节分层次、分租户、分用户进行解耦。一方面保证数据节点的安全性、稳定性、业务连续性,一方面为数据应用提供更多的自主性,使客户可以将数据获取的范围、数据任务的生命周期、系统资源投入的多寡等权限更多的交给实际使用数据的业务部门及应用开发人员。提升敏捷开发效率,实现多速IT,从而在业务需求变化时从容应对,达成数字化转型目标。


节点管理,通过基本配置注册实时数据融合相关的各类数据节点,通过限制配置限制数据任务执行过程中对数据节点的访问,操作动作范围及规则,通过策略配置指定语义映射、多节点降级顺序等数据融合任务执行过程中需遵循的策略。


链路管理,以业务目标为导向,通过基本配置选择数据链路的相关数据源与数据目的地,建立数据对象映射关系,通过限制配置和策略配置,指定在整个数据链路域内的传输速率上限、结构变化策略、一致性保障策略及预警、日志、自动重启等任务执行策略。


任务管理,在已配置完善的数据链路的逻辑框架下,通过基本配置,选择数据链路、选择资源分组、选择任务执行方式,通过限制配置与策略配置对基于链路设定之下的各类限制与策略进行个性化配置。


资源管理,通过基本配置,注册、发现系统资源,建立资源分组,通过限制配置限制数据任务执行过程中对系统资源的使用限制,通过策略配置指定任务执行过程中系统资源状态变化与事件发生的应对策略与规则。



通过高容错的分布式系统和卓越的性能来降低风险


无论是在不同系统间进行数据传递还是将不同系统的数据进行融合,业务连续性、稳定性及性能都至关重要,DataPipeline实时数据融合所有组件均支持高可用,融合引擎基于容器化分布式集群部署,支持动态扩缩容;在节点管理、链路管理、任务管理中均有各个层次稳定性相关策略配置。针对数据采集、消息队列及数据加载的各个组件都进行了一系列专门的性能优化,完全满足客户从数据迁移、数据交换到实时数据服务、实时数据分析的各类时间窗口要求和时效性要求。


支持容错性策略配置,数据节点多节点降级策略、融合任务错误队列策略、数据源结构变化策略、融合任务自动重启策略;
在满足推荐配置的性能测试中,数据采集速度可达近百兆每秒,在客户实际生产环境中,日均处理数据10亿行以上,单任务日处理数据量1T以上。



使用专业化商业套件来降低基础平台研发成本


DataPipeline实时数据融合作为专业化商业套件,通过多年在各个行业的数据融合领域经验积累,将各类专业数据融合技术以专业化产品的方式按照数据节点、数据链路、融合任务、系统资源四个逻辑概念,基本配置、限制配置、策略配置三个层次提供给用户进行配置式构建,大大降低了企业搭建基础平台的研发成本与运维成本,让客户能够将时间精力与优质资源投入到数据价值释放与商业价值实现上去。


数据工程师将精力集中在数据分析与数据价值挖掘,而不是数据链路的研发与融合任务的运维上;
企业级平台的建设周期从三到六个月减少为一周以内,财务成本由300万+减少到30万以内;
数据融合任务的研发交付时间从2周减少为5分钟。



重点领域信息化领先客户的广泛验证
DataPipeline实时数据融合产品在金融、能源、制造、零售、商业地产、医疗、互联网等重点领域被广泛使用,服务了如中国人寿、民生银行、财通证券、中国石油、法国威立雅、吉利汽车、星巴克、百胜中国、龙湖地产、邵逸夫医院、叮当快药、正保远程教育等在各自行业信息化水平领先的客户,被应用在客户服务、生产调度、运营管理、业务分析等重要场景中,在系统稳定性、可管理性、扩展性、灵活性方面经过了反复验证,在系统性能指标、架构设计的专业性与技术先进性上均得到了客户的认可。

销售对象

全部用户

商品定价

Step阶梯定价

商品价格=订购区间数量1*区间规格单价1+订购区间数量2*区间规格单价2。

举例:通话费率为不超过3分钟的部分按0.3元/分钟,超过3分钟的部分按0.2元/分钟;如果用户通话8分钟,收取的费用为3*0.3+5*0.2=1.9元。

Tier阶梯计价

商品价格=订购数量*数量所属区间单价。

举例:通话费率为不超过3分钟则0.3元/分钟,若超过3分钟则0.2元/分钟;如果用户通话2分钟,收取的费用为2*0.3=0.6元;如果用户通话8分钟,收取的费用为8*0.2=1.6元。

线性定价

商品价格=订购数量*单价。

简单定价

商品价格为页面呈现价格。

服务支持
使用指南
DataPipeline_DIP_User_Guide_CN.pdf 下载
平台支持范围
售后服务时间:7*24小时
售后服务内容:现场服务/远程服务、标准技术支持 5*8/7*24、在线技术支持、定制开发服务、委托运维服务、技能传递服务
服务热线:17310777290
服务邮箱:service@datapipeline.com
商品服务协议

订购此商品即为您同意《商品服务协议