正文
第二,这个分析我们做过各种各样不同的病种,有心血管病、糖尿病、肿瘤等。不同的疾病所需要的分析很多是通用的,比如疾病风险预测分析、患者相似性分群分析、治疗有效性分析或是一些患者依从性分析。这样的分析都可以变成一些可以用的模块,作为一些插件,在这个平台上来做模型的生成。其实简单地说就是一个咖啡机,你把数据放进来就会生成咖啡,但是里面有很多参数,你是要调整的,你是要喝美式、拿铁还是摩卡,你要进行调整。包括这里面有很多参数要调整的,但过程是相通的。
给大家举两个例子,这里就涉及到一些医学知识。第一是我们做的疾病风险预测的例子,这个例子想干什么,这个数据库里面有45000个心梗的病人,每个病人有超过八百个变量去描述这个病人包括他的基本信息、治疗信息、临床信息各种各样的信息。那这个医生想知道哪些因素会导致这个患者出现院内死亡,患者院内死亡可能性是多少,这个就是疾病风险预测的典型例子。这个风险模型以前是有的,TIMI模型是医学界公认的目前已知最好的心梗病风险预测模型,它的性能AUC大概是0.76,利用我们的方法,我们把AUC做到0.87。同时,我们发现了24个新风险因素,有很多风险因素是非医疗性质的,比如社会性因素或就诊医院因素。比如,和配偶生活是一个非常好的保护性因素,就是家庭幸福的人治愈可能性更高。
医生常常也做这类分析,他们一般会有自己的假设,从800个量里面挑出15个20个,然后从4400万个人里面挑出一千个人,用经典统计方法去做单变量多变量的回归,去看是不是有显著性,这是目前医学统计常用的方法。但是用这种人工智能方法去做时,我们就会用很多新的一些方法,比如做新的特征抽取。举个例子,我们会用共生的模式挖掘,去看这个患者既有高血压又有糖尿病共病,会不会是一个更加有意义的风险因素。这些因素以前医生不会考虑,是我们通过一些挖掘的方法得到的。包括一些共症共治,比如病人同时服用A药B药进行治疗,可能是一种很好的保护性因素,以前不会考虑A加B,或者A加B加C这样的问题。还有包括一些生理指标,比如血压。
医生首先有自己的家属,从800个量里面挑出15到20个,人群他不见得用4万个人,里面挑出一千个人做单变量多变量的回归去看统计是不是有显著性,这是目前医生使用统计常用的方法。
用人工智能方法来做的时候,比如说新的特征的抽取,举个例子我们会用一些共生的模式挖掘去看,这个患者可能既有高血压又有糖尿病,这样的一种共病可能是一个更加有意义的风险因素,这些因素以前医生不会考虑,这是我们通过一些挖掘的方法得到的,包括一些共治,比如说这个病人同时用了A药和B药进行治疗,以前医生可能用A或者B,并不会考虑A+B,还有像包括一些生理指标也是这样,比如说血压当前值是多少,如果这个病人血压高压是150,他是从90连续涨上来的还是一直持续到150,还是从180掉下来,医生不管,医生只通过一个时间来做判断,其实数据时间序列的信息没有很好的利用起来,这些都是用人工智能的方法,不管用RN建模或者其他分析的方法,可以很好的捕捉到数据之间时间序列的信息,利用这样的信息可以做更好的预测。
我们最后发现我们把所有的因素,我们不光发现哪一些因素有影响,同时每个因素的权重包括它的分类都列出来了,医生就会说这个病人因为病情太严重导致死亡的,还是治疗不给力导致死亡的,同时每个病人都会按照风险排一个序,横坐标是一个病人的患者号,所以高风险、中风险和低风险所有病人一目了然,这样可以帮助医生更好对病人进行管理。
第二,我介绍一个叫“患者精准分群”的分析。这个也是精准医疗里面非常重要的,什么叫精准?有两个极端,一个极端观点认为每个人都是不一样的,因为每个人的基因都不一样,每个人基因变异也不一样。“个体化治疗”要个性化到每一个“个体”,这是很好的理想,但是现在做不到。另一种观点就是人群治疗,基于一个人群的定义,比如说二型糖尿病,这就是一个定义。医生只考虑“二型糖尿病应该怎么治?”的问题。目前很多精准医疗就是希望在这两个极端之间找到中间状态,以中国为例,心血管病患者2.6个亿,糖尿病患者一亿。这一亿人肯定是不一样的,但肯定不是一亿种情况,怎样在中间找到一个更好的合理分群并进行个性化治疗。这里我们做了一个针对房颤病人的案例,房颤就是心房颤动,它是一种叫心脏慢性指征,本身无害的,但患有这样的疾病,会导致很多恶性心血管事件,包括心梗(心肌梗塞)、脑梗(中风)。我们拿到了大概两万人的数据,每个病人有超过1600个特征进行描述,医生要做的事就是要判断这个病人是高危,还是低危。如果高危,怎么治疗,是不是要对患者进行中风预防。如果这个治疗就这么简单也就罢了,但是很多治疗都是有危害性的,用药过量会适得其反。所以,医生每天都会面临“生死抉择”。这是个问题对医生来说,按照经验,他们知道有些病人不该吃的我给他吃了,但是很不幸,我用以前的模型还不够精准,他发现不出来那些不该吃的病人。所以,我给分了五群。这里就看出来这五群患者将来中风的发病率有显著的不同。
看这个图可以发现,有一群人其实属于过度治疗,这群人被传统方法认为是高危,其实并不高危,只不过他以前的模型没有办法捕捉到这个细微的区别。
同时,又发现这群人适用某种药物,针对此类人群,吃这个药物中风发病率是9%,否则发病率就近18%。所以,这一群人对于某种治疗方案反应特别好,而这个治疗方案在所有人群众其实没有显著差异。所以,这就是一个精准的分群方法,能帮助从病例数据中挖掘出更精准的患者分群,然后去帮助医生做个性化治疗。其实分群也不是新方法,但传统上分群是无监督的,很多结果在临床上没有意义。我们一些核心方法,利用结局驱动的方法,我们可以把患者按照中风的发病率区分开来。这个方法,
第一,会判断哪些因素对患者聚类是特别重要的。同时,每个因素的权重是多少。利用这样一个方法,就可以把患者分得特别开,同时,可以去看每个不同人群对不同治疗方案的反应。同时,我们来看一下这个系统是怎么样去工作的。一开始能看到各种各样的数据。这个数据集,可以看到不同的列,大概有一千多列的数据。如果选中了这个数据,到下一步它就会出现各种分析方法,每一块是一个分析方法,有疾病预测分析的,有患者分析的,还可以看分群的过程,一个宏观的分析流程是什么。
如果你选中了这样一个分析模块,你就选中了数据集,选中了分析方法,有一些参数可以调整,比如说想分几个群,用什么方法分群,关注点是住院、死亡还是中风等。分析任务生成后,送到后台运行后就可以看运行结果了。这是第一步,你会看到所有数据项,包括数据分布,这都是在做分析之前做的数据探索,去了解数据的样子,关键结局有没有,人群是什么样的。然后,就可以看到分析结果,这个分析结果包括这里边每个点表示一个人,不同的颜色表示他被分到不同的群,这是那五群人。然后,包括这五群人在不同的观念信息上的一些分布,比如患者之前是否得过中风,有没有糖尿病及治疗有效性等。所有的这些信息都会呈现出来,帮助数据科学家很好地理解。这个过程看起来很简单,其实整个做这样一个分群,是经过大概70个步骤,每个步骤完成了从数据的治理、人群的构建、特征的提取方方面面的过程。通过这样的一个过程,最后得出来一个患者精准分群的模型。它也从此形成了一个模板,有类似新数据要做分析,用这个模板就可以得到分析结果。这里很快的给大家分享一下针对结构化变量的定义,做这种真实世界证据挖掘的工作。
第四个我想介绍的叫“认知决策”。其实这个决策知识也不是新话题,从人工智能诞生的第一天起就有了,专家系统其实无非就是想去怎么样把专家的知识变成一些计算机可以去执行的规则。上世纪50年代,斯坦福就做了一个针对医学专家系统,当时他们做了几百套规则,针对血液病的治疗,可以给血液病患者进行诊断和治疗。这就是前面的第一步,如果各位有了解过医疗,里面有很多像医疗指南、临床路径,这都是医生总结出来的规律和知识。但只从书本当中学到的知识是有缺陷的,往往学习到的知识比较抽象,实际使用时会有各种各样的问题。以尿病治疗为例,你可以看到当这个指南告诉你这个病人血糖控制的不好,而且目前使用了双胍类的药物,还控制不住,他应该用双胍类和磺脲类联合治疗。指南只能告诉你这些,怎么联合?选择哪种双胍类药物?选择哪种磺脲药物?
医生需要的是一个可操作的action信息,指南很难提供。我们开始尝试另外一条路径,就是用数据驱动的,用机器学习的方法,不管用哪种模型,都可以去做这种基于数据的推荐。简单地说,类似的病人都是怎么治的?治完之后效果如何?以此为基础,就可以得到治疗方案。这样的结果,好处是所有知识都是从数据中学习出来,所有推荐是接地气的。但缺点在于,数据往往都是有局限性的,知识是从这个数据上学出来的。
第二点,很多计算机的模型是“黑盒子”。对医生来说不可解释,不能得出像水晶球一样的模型,模型可以告诉我们质量方案,但不告诉我为什么。在这个过程中就发生了一个真实的例子,分析几万糖尿病患者超过五年的数据,我们发现最好的办法就是上胰岛素,这个效果最好,降糖最快。医生说,你这不是开玩笑吗?没有尝试,我们这个治疗一二三四线,胰岛素是最后的,我一线、二线、三线药物控制不住的时候才会这样。
这里有一个生物逻辑在前,生理生物学的逻辑在背后的问题。计算机分析的结果,效果最好、最明显的就是胰岛素治疗。后来我们发现这个过程特别像一个医生的成长过程,一开始是读书,能把理论框架和非黑即白的知识都把它挖掘出来。但是,真实世界很复杂,医疗不是非黑即白的,面对一个患者的时候,往往有多种选择,每一种选择它都有优缺点,并不存在一个单一的“最好选择”。每一种选择应用到患者身上,效果也不确定,这个患者有效,那个患者无效。所以,好医生毕业后,通过大量病例学习,临床实践,在自己的脑子里边构建了一个概率模型。他知道这个情况可以有这几种选择,哪种选择有效的可能性大,这恰恰是计算机非常擅长的。
所以,我们最后做出来的这样一个概率模型,方法就是用这种指南和临床知识作为骨架,从数据中学习各种从疾病的筛查、诊断、治疗、愈后相关的这些概率模型,把它作为血肉添加到这个骨架上,它就变成一个非常完整的临床决策知识库。
再给大家介绍一个例子,这是一项技术,这个技术它到底能怎么用?我们一开始把它用到了慢性病管理领域。因为中国现在慢性病患者超过三亿,包括2.6亿高血压、一亿糖尿病,一亿呼吸系统疾病,还有很多慢性肿瘤患者。这些患者靠的是约一百万的社区医生来进行管理,现状是“管不过来”。这些医生一年接受两天的上课培训,帮助他们去了解最新的治疗的方案。他们一个人至少管理20种疾病,这对他们来说是一个巨大的挑战。我们从计算机角度能帮他做什么?我们选择了两个场景,一个场景是做这种疾病的预防,我们去帮助医生们把那些有并发症风险的高危患者尽可能地挑出来。以糖尿病为例,一个糖尿病患者可以出现超过30种并发症,如何及早发现那些还没得中风、没得心梗、没肾衰竭的糖尿病患者,并让医生去进行一些预防。这样既能降低病人痛苦,也能降低医疗成本。
第二块就是治疗。一个是防,一个是治,在治这个角度,我们怎么样利用临床指南的知识和我们从几十万、上百万的糖尿病患者治疗的既往的数据中间挖掘出来的这些证据,真实世界的证据结合在一起,针对当前患者最好的治疗方案。给大家看一个小的视频,这是我们实际使用情况,可以看到目前这个系统跟医生用的电子病例做整合。目前有6000位患者已在使用这样的系统进行治疗,每个月系统生成的推荐接近两千,而且还在持续增长。其实医生接触的新事物挺有意思的,社区的医生一开始不愿意接触新事物,看到其中的价值之后,他们就达到了一个很高的使用的水平。我给大家也很快的看一个演示,可以看这个系统是怎么工作的。这是在模拟社区医生的工作的平台,医生进行随访,这个系统会自动地把患者风险按高、中、低排出来。同时,会告诉医生为什么这个病人有风险,风险模型是什么,这个患者有哪些数据导致他有这样的风险,帮助医生把这些风险因素找到,同时会做一个治疗的推荐,这个病人是该降糖、降压还是降脂,不同的治疗方案,应该用什么样的药物,包括剂量、频率,所有的这些信息都是从数据里挖掘出来的。类似的病人,他都用了一些什么样的治疗方案,效果怎么样,把这样的信息推送给医生。这里面就是所有的证据,比如针对某种治疗,系统发现说这是指南里面的证据,包括26%的病人,接近2300多个病人用了这个治疗方案。每种治疗方案的方法及效果是什么样的,这些信息,我们从数据中间挖掘出来,和指南知识结合在一起,推送给医生,帮助他去做一个更好的慢性病的管理。
医疗自然语言处理可能是我今天要分享的最后一个例子了。这个里面,它核心的技术是什么或者它解决的问题是什么呢?它要解决的问题就是疾病管理,我刚才也提到了,在中国慢性病患者有三亿人,而高血压的发病率大概是20%。所以,一个拥有五百万人口的城市就有一百万的高血压患者,按照规定这些患者都要被随访管理,会有人问他最近你血压高了没有,降压药有没有按时吃,血糖是不是也有变化,并把这些信息收集起来,然后基于这些信息来进行一个风险的评估和及时的干预。如果发现他血压特别高,可能医生就会督促他进行一些血压的管理,发现他血糖也升高了,那可能也得降点血糖。这些是靠什么来完成的?在一个有五百万人口的城市有一百万的患者要去进行这样的随访,怎么可能随访得过来?医生是不可能做到的,所以现在就招很多护士,包括一些提供健康管理方面的机构来培训这些护士。但是这依然是对人工需求量很大的一个工作。所以,在这里我想说的是,我们可以利用两项关键技术来解决这个问题。
第一个技术是对话技术。我们不是做一个通用聊天机器人,而是做一个像是虚拟护士一样的机器人。这个“虚拟护士”能够执行“护士”的随访的过程,对高血压、高血脂、高血糖病人,进行自动随访,并采集相应的信息,如果系统发现这个病人有情况的话,能够生成预警。
第二个技术是QA技术,也就是问答技术。在中国有很多类似于春雨、好大夫这样的医患沟通网站。在这些网站上面有大量的患者在问问题,其实很多问题都与饮食、运动、作息、药物的副作用、药物之间不良反应有关,但这些并不是核心诊断和治疗的关键所在,那么,这些问题就可以靠人工来回答。同时,我们也能用QA的技术来做患者教育,帮助患者最及时地找到可信赖的信息。这块我给大家看一个演示,就是这个系统是怎么工作的?它的核心技术是怎样的?这个核心技术我挑了一个应答技术这块。它里面想解决的核心问题很简单,是说你的知识库里面的知识或者问题往往都是写得比较规整的,都是医生或者是护士整理出来的,很好的。但是,患者问的问题是五花八门的,比如病名字写错的、药名字写错的。你想大爷大妈能用什么样的词?各种俚语、口语都会有。你怎么样去做这个QA这个核心技术?这是里面一个非常核心的技术,所以在这里面我们不同层级都用了深度学习的技术,包括用CNN做问题分类,做问题的相似性匹配。最后可以达到一个比较好的Top1的效果。我给大家看一个我们在微信上做得小视频,一个工具,这个工具,这是患者,这是机器人。他就在问,你最近长胖了吗?最近测血糖了吗?基本信息问完之后,它会给一个报告,一个建议说你该怎么样做。这个时候,患者就会有问题,我能吃什么东西吗?或者是说我吃这个药有什么问题吗,这时候系统就会用QA的技术来自动回答问题。它不是那种通用聊天,而是模拟一个护士在跟患者沟通。包括他会跟患者说,你最近吃什么药了吗?而这个用药的列表也是患者个性化的,因为不同的患者吃的药不一样。患者会回答说吃了或者没吃,或者为什么。经过这样一个过程之后,系统在后台会自动地生成随访报告。这个随访报告里面包括当次回访采集到的体重、血压、血糖等信息,也包括这个患者用药的依从性、患者问的问题,通过这个报告,疾病管理师能更好地对患者进行疾病管理。同时,这个系统也具有决策功能。当它发现有风险的时候,会及时地通知患者和医生,让他去医院就诊或者是对患者进行及时的干预,避免酿成大祸。
时间关系,我今天的这个分享大概就这么多了。我想最后再讲一点,做医疗人工智能是一件非常谨慎的事情。因为医疗是一个人命关天的事情,不是说你拿一个模型、算法,给它一堆数据,一跑,就能出来一个治疗或者诊断的模型。做医疗的时候,一定要把医学的知识和靠谱的分析手段结合在一起,很谨慎地选择数据,选择人群,选择你要分析的任务。此外,还要心存敬畏,这样的话才有可能做出来靠谱、能用的医疗AI。我今天的分享就是这样,谢谢大家!
精彩对话:
雷鸣:非常感谢,讲的特别精彩。基本上涵盖了我们说整个医疗的整个过程,包括疾病的预防、得病之后的诊断、初步的治疗方案、慢性病的管理,信息量很大,涵盖面特别多。你讲了IBM在医疗方面的进展,其中的好多东西是我第一次学到,特别好。
基于刚才你讲的东西,我想进一步了解一个问题,你刚才讲到IBM在做神经网络芯片,这个的话以前我在新闻上也看到一些。我想大概了解一下神经网络芯片和CPU、GPU或者说FTGA在整个在定位上与神经网络芯片未来是一种通用,还是专用?是要替代GPU这种在深入学习上的计算,还是在远端?大概是一个什么样的发展定位?
谢国彤:好的,谢谢雷老师的问题。首先我不是做硬件的,不过我可以试着来回答一下这方面的问题。大家可以看到,除了CPU之外,现在有GPU、FPGA这样的专用芯片,可以辅助CPU做计算的过程。这类脑芯片它的定位,我觉得它不是要来代替计算型任务的,CPU该干的事儿还是CPU干,类脑芯片它并不是要取代现在计算机能干的事儿。你可以从它的设计来看,它本身就是一个神经网络,是靠神经元和突触,很多普通的计算任务它不擅长,但是它擅长的workload是 neural network 这样的workload。所以,首先从任务上来看,它就和经典的CPU、GPU或者FTGA有一个任务上的切割,这是第一点。
第二点,它特别强调的是低功耗。所以,低功耗就会主要偏向S端,就像这种边缘计算。可以想象有很多物联网或者传感器这样的场景,它可以把这个训练好的模型运行在这样的芯片上。然后,这个芯片你可以想象到。我听说他们当初最早做得是一些机器昆虫实验,机器昆虫绕着IBM硅谷研究院飞,功耗特别低,可以飞好久,可以采集风、湿度、温度等信息。做出这样的东西之后,它可以把有限的计算推送到远端,你可以在远端就做一些事情,又不需要耗那么大量的计算。这样的话,站在边缘计算这个角度,我觉得它可以发挥更好的价值。
雷鸣:谢谢。就目前来看,这一次人工智能整个火起来深度学习功不可没。深度学习应该是三四年前,在图像处理上有巨大发展之后兴起的,最近一发而不可收拾。所以,我也想了解一下。因为对于IBM的研究,在医疗上应该做了也有十来年了,从最近来看,深度学习这项技术的,在整个医疗领域里边,尤其是医疗科技会带来一些什么样的突破性的发展?这项技术和技术传统的学习算法之间怎么融合才能够推动整个AI+医疗的发展能呢?
谢国彤:好的。首先,我觉得深度学习在医疗应用的领域还处在一个开始的阶段,大家比较容易直观想到的是,把深度识别、深度学习从其他成功的领域搬到医疗领域里面,所以最直接的就是医疗影像。在医疗影像里面,目前深度学习用的最多的,相对来说效果也是是最好的。这个可能和影像、数据特征有关系,它从空间上来说是一个比较稀疏的数据。那在其他的一些领域,比如说像病例数据领域,是一个非常稀疏的数据。在这样的数据上,深度学习的工作尝试阶段,我自己做的,同时也包括我们看到的一些报道,绝大多数像EHR数据、电子病例数据上面去做深度学习跟用一些传统的方法比,它的提高都是小数点后第二位,甚至是第三位。
但是,我觉得深度学习它能从一个端到另一个端的尝试是一件非常好的事情,所以它的潜力在于可以把多种学习方法融合在一起。所以,这是我们目前能看到的非常有趣的一点。我们可以在中间叠加一些其他已被证明在这种医疗数据上比较有效的一些学习方法,把它融合在一起。所以,这是我个人觉得比较有前景的一个方向。
雷鸣:我觉得讲到这的话,衍生出两个问题来。我们做医疗的话,可能比较有挑战的事就是这种所谓医学数据的获取,或者说就是和这种医院的合作。因为我在美国的时候,已经关注这个很久了。在两三年前,有次跟斯坦福的李教授一起喝咖啡聊到发展问题时。他对医学这方面也很感兴趣的,但是他告诉我说,即便是在斯坦福校内,他如果要用斯坦福校医院它的数据的话,也需要去申请,也需要通过论证。他说他当时提了一个,讨论了一年,还不行。所以,从这件事看出来医疗数据的合作难度还是比较大的,所以对IBM来讲或者说你对整个产业将来医疗加上AI或者说加科技这一块,怎么实现医疗数据的合作?怎么跟医院打交道?你有什么经验,或者说你对这一块未来发展是怎么看的?
谢国彤:你刚才讲这个李教授这一块,所有的医疗研究都要经过一个RB的一个过程,通过伦理委员会,证明说你这个研究是符合伦理的,不会侵犯到患者的隐私,不会危及到患者的生命安全。所以,医疗和电商是不一样的,它是人命关天的事儿,这是第一点。
第二点,在美国,法规比较健全,法规里面就规定了什么是能做的,什么是不能做的。比如说像我刚提到IBM收购了很多数据,那些数据它都是合法在使用的,你只要把隐私数据去掉,这些数据就可以合法使用,甚至交易的。所以,在美国,我看到的是说刚刚提到的几亿人的保险数据、上亿人的病例数据,这些数据是可以分析的。在中国,传统的医院是一个又一个的信息孤岛,不要说医院和医院之间了,比如301和协和,它的数据肯定是两个孤岛。甚至是在一个医院内部,它的系统都是逐步建立起来的,先建一个挂号,再建一个拍片系统,再建一个病例系统。甚至这些系统之间都是孤立的。现实状况是这样,但是我觉得从国内来看,在过去的五年,卫计委(以前的卫生部)花了很大的力气去做这个可互操作性或者是叫系统的连通。它在区域级别把大医院、中型医院、小医院的数据尽可能地集中在一起。
第三点,也是最近的消息,卫计委在江苏还有福建两个地方试点国家的健康大数据中心,所以从简单的数据采集,现在走向了怎么样去分析利用这个数据,让这个数据发生价值。所以我的感觉是,整个的趋势是在往数据越来越集中,数据分析价值越来越被看到和认可靠拢。
雷鸣:感觉在美国的话,在法律法规之上的,也就是符合规定的,就很容易做到。但是呢,如果想更深一点,估计难度就会非常大,需要各种认可,各种签字,中国对这方面的管理相对来讲正在规范化,所以现在如果说致力于做这块创业或者是研究,可能更多还是要跟咱们的医院或者真正有数据的地方,做一些合作,而且能够得到医院的支持会更好一些。
谢国彤:我再稍微补充一点,除了国家在搞大数据中心外,习大大也投了600亿做精准医疗,所以很多医院的大教授、大专家,有很大的兴趣做这方面的工作,所以我们在中国的合作,其实也是与这些专家的合作,他们有数据,也积累了一段时间,并希望利用一些新的,像人工智能这样的方法,来发挥这个数据的价值。
雷鸣:看来正好是风口。
谢国彤:对。
雷鸣:我们接着去探讨这个事情,因为我也做过一些研究,像医疗数据,它的整体质量,相对差一点。就是说我看过一些病例系统,它的记录,自然语言很不完善,有时候甚至要找一些更高级的医生去看这些记录,还有很多不一致或是错误的地方,针对这种质量比较低的数据, IBM在做的过程中,或者不管IBM做不做,您个人对出现这种情况后要去往后做研究,有一种什么样的建议?
谢国彤:首先关于医疗数据质量问题,我稍微多说两句,因为和我打交道的医疗数据比较多,医疗数据的质量有好有坏,影像数据相对来说质量较好,因为国内一般用的都是国外的标准,所以影像数据的质量比较好。那有一些数据,像病例数据,疾病登记库的数据,往往都是某个学科,比如说像中风,或者高血压,或者权威机构,国家级中心花很大的力气,经过三年、五年去收集的数据,这样的数据一般都在来自于3—5万人,每个患者大概都在1500—2000个变量,这些数据质量也非常高。还有一类数据是医疗保险数据,医疗保险数据它的质量也很好,因为它有连续性,就是不管你是在A医院看的,还是在B医院看的,最后通过医疗保险,能把所有的数据关联起来,这是它的优点。当然它也有缺点,它的缺点就是它只有结果式的信息,没有过程信息,它知道你抽了血,它不知道你抽完血,血糖是多少?就目前来看,病例数据又细分为住院病例和门诊病例。住院病例是质量比较高的,因为很多医生的科研是基于住院病例上面的再加工,所以他会花很多力气去做,包括一些医学院的学生,每天下午就会在住院科录病例,这些病例比较高。病例比较差的是门诊病例,因为在门诊每个病人停留基本上不超过5分钟,医生没时间去做这个事情,他也不觉得这个数据有科研价值,所以呢,这个是数据质量确实是良莠不齐的,所以刚才你也提到在开始做这个方面时,要选择一个好的数据的级和一个好的问题。如果你一开始选了一个特难的问题或是选了一个特烂的数据级,肯定不会有什么好的结果。不是说人工智能不好,有时候可能是医疗价值不好,可能是你的问题和你的数据没有选对。