查看原文
其他

浙江大学医学院附属邵逸夫医院×DataPipeline丨实时数据共享,促进医疗信息互联互通

DataPipeline DataPipeline数见科技 2022-06-21


2018年4月,国务院办公厅发布《关于促进“互联网+医疗健康”发展的意见》,提出要协调推进统一权威、互联互通的全民健康信息平台建设,逐步实现与国家数据共享交换平台的对接联通,强化人口、公共卫生、医疗服务、医疗保障、药品供应、综合管理等数据采集,畅通部门、区域、行业之间的数据共享通道,促进全民健康信息共享应用。

 

基于上述国家信息化战略,各级医院将信息化作为医院发展的一项重要目标。其中,作为大陆首家通过国际医院评审(JCI )的公立医院,浙江大学医学院附属邵逸夫医院(以下简称“邵逸夫医院”)本着让患者“看病最多跑一次”的服务理念,成为探索“互联网+医疗”模式的典范。而这背后是数据的“互联互通”。


图片来源:邵逸夫医院官微

打通内外部系统孤岛、实现数据互联互通


“信息孤岛、数据不共享”是推动智慧医疗面临的突出问题。为此,邵逸夫医院分别从内外部信息的互联互通着眼,在国内率先实现了医疗服务全流程改造。

整合院内各类系统资源,提升工作效率

1. 实时数据共享,改善患者就医体验

之前患者看病需要经历挂号、取号、看病、缴费、检查、取报告、拿药等流程,其中会涉及到多个业务系统之间的数据同步。这些系统是医院基于不同科室、不同部门的信息化发展需要建立的,数据共享往往通过双方接口的一级互联来完成,各信息系统之间相互独立。



随着系统间的数据交互、业务协同需求日盛,如果数据不能稳定实时同步,会影响患者就诊。然而传统的T+1模式已经难以保证数据的时效性,例如物联网数据、监护数据,心跳心率数据对实时同步具有强需求。

考虑到数据散落在不同的数据库、消息队列、文件系统中,计算平台如果直接访问这些数据,会遇到可访问性和数据传输延迟等问题。在一些场景下,计算平台直接访问应用系统数据库会对系统吞吐造成显著影响。邵逸夫医院选择将那些无法对接ESB(Enterprise Service Bus)的系统,通过DataPipeline实时将HIS、LIS等信息系统的数据同步至数据中心进行集中处理和管理。目前数据中心包括临床数据CDR、运营数据ODR、科研数据RDR、设备数据EDR等数据。
 
实时数据同步一般通过日志解析模式获取源数据变化,基于日志的解析模式常用于各种关系型数据库,例如MySQL的Binlog、Oracle的Redo&Achieve Log、SQL Server Change Tracking & CDC等。在邵逸夫医院上,主要是通过SQL Server的Change Tracking机制捕获变更数据,实时将业务库数据同步到Oracle数仓。当前平台的基本要求是实现秒级同步。



2. 可视化监控、易操作,提高医院管理效率

DataPipeline打破了以往对于数据融合平台看不见摸不着的传统印象,采用可视化的数据融合管理界面。即便是无专业大数据技术背景的数据从业人员,也可在短时间内自主配置一条数据管道。

通过可视化运维看板(数据任务看板、速率进度信息、报表统计、日志审计),可以看到数据同步的状态、数据的来源与结构,及时了解数据的接入、交换和数据流向。当数据同步出现问题时,基于完善的纠错机制与系统状态监控,可第一时间找到数据源并进行处理。在提升工作效率的同时,降低了工作负荷。


对接外部信息化平台,实现数据互通共享


“一位患者因某种疾病在医院做过胃部检查,不久,这位病人去另一家医院复查疾病,还需要重新检查。”类似这种重复就医的情况随着医院间电子健康档案、电子病历、检查结果的共享已经开始发生改变。而这背后是医疗联合体积极运用互联网技术,实现医疗信息互通共享的结果。

当下医院数据主要包括电子病历、影像数据、费用数据、药品流通数据等。其中,电子病历和影像数据作为核心的数据资源成为数据互通共享的重点。目前电子病历大多为非结构化数据,而影像数据(B超、彩超等)的数据量庞大且增速快,当面对少量数据源,数据增量不过每日几百 MB 时,数据融合平台的可伸缩性不是大问题。当面对成百上千个数据源,或者数据源数据增速很快时,平台的任务水平切分和多任务并行处理就成为一个必备的要求。数据融合平台不仅要支持单节点的多任务并行,还需要支持节点的水平扩展。这需要数据融合工具能够快速应对源端数据的变化和异构数据的兼容问题。


DataPipeline助力医疗数据互联互通


未来,随着5G、人工智能、云计算、物联网等信息技术在邵逸夫医院的深入应用,必然会对数据融合平台提出更高的要求。DataPipeline将在以下几方面保障医疗资源的上下贯通和信息共享:
 
在实时性上,相较于传统数据集成的批模式,DataPipeline模式最核心的区别是将批量变为实时:输入的数据不再是周期性地获取,而是源源不断的来自于数据库的日志、消息队列的消息。进而通过一个实时计算引擎,进行各种聚合运算,产生输出结果,并且写入下游。
 
在解决多源异构问题上,可以支持市场主流关系型数据库和非关系型数据库。同时还可以快速实现云上数据平台的数据打通、支持各种大数据平台、文件系统同步。
 
在易用性上,DataPipeline 能够自适应表结构变化自动同步,无需人工干预,降低了医疗行业应用场景定制化的难度和Kafka技术的使用门槛,以较小的代价用新技术解决了传统数据融合的难题。
 
在稳定性上,DataPipeline继承了开源的所有优势,产品灵活、自主可控、可扩展,同时侧重于丰富用户所需的管理功能:数据管理,监控,运维,稳定性,容错性,以及故障排查的能力。

在客户服务上,售后、运维团队及时收集客户问题,并将问题分类,专业问题专人负责,通过项目微信交流群、TeamViewer、电话等方式及时响应客户需求。



关于DataPipeline

 

DataPipeline是一家企业级批流一体数据融合服务商和解决方案提供商,国内实时数据管道技术的倡导者。通过提供数据的批流一体处理、任务调度、数据质量管理、可视化运维与监控、API数据接入、元数据管理等功能,帮助客户更敏捷、高效地实现复杂异构数据源到目的地数据融合和数据资产管理等综合服务,为客户灵活的数据消费需求提供强有力的技术驱动。
 
DataPipeline已经成功服务了星巴克、金风科技、财通证券、龙湖地产、阳光城、喜茶、玫琳凯、叮当快药、智慧图、正保远程教育、销售易、长城汽车金融、贝发集团等多家行业领先的企业客户,同时已与数十家产业上下游合作伙伴建立了战略合作关系。

他们也在用DataPipeline


阳光城集团Moka叮当快药财通证券智慧图正保远程教育贝发集团

end

想要了解更多关于DataPipeline批流一体的数据同步、API数据接入、任务调度、数据质量管理、数据清洗、元数据管理等信息,可以拨打400 6065709或者在微信后台留言



点击“阅读原文”,申请DataPipeline 产品试用↓↓↓

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存