□首席记者 谭嘉 今年世界癌症日当天,大名鼎鼎的IBM沃森(Watson)人工智能系统,在天津市第三中心医院深度参与了对20多位癌症患者的义诊。这也是机器人医生沃森首次在中国为癌症患者“出诊”,表现良好。 人工智能在医疗领域的新成果,最近接踵登上顶尖学术期刊。今年1月,国际权威期刊《自然》杂志刊发题为《达到皮肤科医生水平的皮肤癌筛查深度神经网络》封面文章,介绍美国斯坦福大学研究团队开发的一项在皮肤癌诊断上,准确率可媲美人类医生的人工智能。前不久,《自然》杂志又发表另一项来自在北卡罗来纳大学教堂山分校精神病学研究团队的人工智能成果,该智能系统在儿童自闭症早期诊断上完胜医生。 机器人医生的脚步声渐行渐近,各方对于其未来在医疗领域中将扮演何种角色的关注也日益升温。 助力临床决策能打90分 对于机器人医生沃森在该院的首秀,天津市第三中心医院肿瘤科主任吴尘轩打了90分。“沃森系统对海量信息的搜集与处理,弥补了临床医生获取最新医学讯息在时间、内容上的不足,对医生临床决策是有力的辅助。” 在诊疗过程中,吴尘轩通过电脑输入患者基本情况、病史、癌症的组织学类型等信息后,沃森系统在约10秒时间内给出了一系列详细的诊疗方案,包括优选、次选,建议医生慎选、不考虑选择的方案等。其中,优先方案与吴尘轩的判断一致。 “沃森系统给出的方案是否最好、符合指南规范,我们在接触之初也有质疑和好奇”,吴尘轩说,面对患者,有经验的医生会很快形成治疗方案,从当天自己接诊的7位患者看,沃森系统给出的优先方案都印证了医生的决定。 “扣10分,是沃森后续还需要本土化。”吴尘轩说,如在适应证上,学习数据主要来源美国顶尖癌症中心的沃森系统目前只能用于肺癌、乳腺癌、直肠癌、结肠癌、胃癌和宫颈癌6种癌症的辅助治疗,并不包括中国高发的肝癌。鉴于东西方人种、药品种类、治疗方法等差异,沃森系统未来在中国要更好地推广应用还需要学习更多本土资料,以更适合中国病人实际。“人工智能需要不断认知学习,医院不能是简单被动应用,也应该积极参与人工智能的建设。随着今后更多地应用,我们对人工智能的了解也将更加深入。”天津市第三中心医院信息中心主任胡晓旻说。 未来展现无限可能 毫无疑问,作为新一轮技术革命的代表,人工智能在医疗领域的应用正带给我们更多震撼与期待。 在今年1月《自然》杂志介绍的这一用于筛查皮肤癌的人工智能研究成果中,研究团队通过深度学习的方法,用近13万张痣、皮疹和其他皮肤病变的图像训练机器识别其中的皮肤癌症状,并与21位皮肤科医生的诊断结果进行对比,发现该系统对皮肤癌的诊断准确率与人类医生不相上下,超过91%。 2月15日,来自在北卡罗来纳大学教堂山分校精神病学研究团队关于自闭症诊断的人工智能成果再次登上《自然》杂志。她们开发的深度学习算法,在预测2岁前的自闭症高危儿童(有个自闭症哥哥或者姐姐)是否会在2岁之后被诊断为自闭症上,以88%的准确度远超准确度只有50%的传统行为问卷调查法。 基于深度学习的人工智能蕴藏着构建未来医疗新世界的众多可能。胡晓旻说,人工智能将是满足未来医疗需求的重要依靠。人的记忆有限,分析能力也有个体差异,拥有超强认知计算能力的人工智能可超过人类人均智能的平均水平。鉴于我国优质医疗资源分布不均的现实国情,推广应用人工智能更有利于治疗的规范化、标准化,促进基层医生学习,为患者提供优质服务。 目前,IBM、谷歌、微软、百度等巨头已纷纷布局人工智能产业链,国内致力于人工智能在医学影像、辅助医疗、药物开发、健康管理等领域应用的研发企业如雨后春笋。国家层面也在力促人工智能与医疗领域的融合发展,相继出台《关于促进和规范健康医疗大数据应用发展的指导意见》等重磅政策;在《“十三五”国家科技创新规划》中,明确提出将重点发展大数据驱动的类人智能技术方法。国家卫生计生委2月17日发布的2017版《人工智能辅助诊断技术管理规范》及《人工智能辅助诊断技术临床应用质量控制指标》,质控指标包括诊断准确率、辅助诊断增益率等。 采访中,也有业内人士指出,在医疗领域,人工智能的应用还处于起步阶段,面对复杂的生命和疾病表现,人工智能需要学习的内容还太多,在数据采集、构建算法等方面任重道远,绝非一日之功。 不必将智能系统神化 医疗领域的人工智能应用大幕已徐徐拉开,机器人医生能否取代人类医生的疑问也日益升温。有人认为不能取代,有人认为这只是时间问题,也有人认为机器人医生即使不能代替经验丰富的医疗专家,但完全能够代替普通医生。 “机器是人来设计和操作的,人始终占主导地位。人工智能辅助诊疗系统的优势是证据丰富,但这些证据是医生在临床实践中得到的证据。”吴尘轩说,比如沃森系统给出的是优选、次选,建议医生慎选、不考虑选择等一系列方案,而不是单一方案,最终要由医生来选择。系统给出的方案是抓取病人某一时间点的信息进行分析,尚不能与病人实时互动,而医生能够随时根据病人病情变化调整方案。人工智能诊疗系统获取的证据更多,但在与病人的实时沟通、调整方案上,机器的经验永远比不上人,“证据更多,不等于经验更好”。 吴尘轩认为,智能诊疗系统并非万能,不必将之神化。临床医生要合理利用这一辅助工具,而不是完全依赖。“医生未来不是不学习了,而是学习更有针对性,能够借助智能诊疗系统,节省大量的文献检索时间,直接关注与患者最相关的信息,做出最优的治疗决策。” 北京协和医学院张新庆教授说,从医学哲学视角考量,有两个问题需要关注,一是机器人医生能不能代替人类医生,二是机器人医生该不该代替人类医生。能不能代表客观技术层面,是不以人的意志为转移的;该不该是价值判断,反映人的主观偏好。如果主观上认为机器人医生不应该代替人类医生,在情感诉求、偏好上就容易影响事实判断,倾向于认为不能代替,但这是两个不同问题,其内涵相互关系值得深入探讨。 张新庆认为,机器人医生能否取代人类医生,从伦理学角度看也有不少问题值得思考。首先是责任归属。如果机器人医生作出一个诊断,人类医生认为正确只是作出确认,将来如果出现医疗失误,责任归属是机器人医生及其生产厂家,还是人类医生。责任划定不清就是一大伦理问题。 其次涉及患者知情同意、选择。医生必须告知患者将借助机器人医生作为辅助诊断。对于机器人医生在疾病诊断中可能扮演的角色,患者有知情权和选择权,知晓其中风险、医疗费用、将来的诊断决策方式,从而作出明智选择。 在治疗中,对于临床上较为困难的治疗方案选择,是坚持还是放弃?两种疗效都非最佳的治疗方案如何选择?即使人类医生也不能单独作出判断,需要请患者参与其中,综合考虑患者的主观偏好、价值观、人生目的、生活质量等,共同作出决策。这些问题是机器人医生无论如何都无法代替人类医生来作出决定的。 机器人医生无法取代人类医生与患者进行情感交流,也是多位专家着重提及之处。中国医学科学院肿瘤医院内科徐兵河教授说,人工智能在医疗领域的应用大有前途,但诊断最终离不开人。看病与下围棋不同,不是按照预定程序、方案就可以解决问题,病人不同的疾病表现、内心情绪等,机器人医生都还涉及不到。