可用数据有限、学科人才紧缺、相关标准法律不完善
这些问题不解决 在医疗领域AI只能“打下手”
实习记者 于紫月
智能“阅片”、临床决策、护理机器人……近年来,随着人工智能的蓬勃发展,人工智能与医学结合的相关技术开发也进行得如火如荼。
近日,人工智能在药物研发领域迈出重要一步,澳大利亚研究团队将全球首个AI设计药物——“涡轮增压”流感疫苗推入人体试验阶段,这款药物开发用时两年时间。
就像“互联网+”一样,“人工智能+”的模式必然会给我们的生活带来翻天覆地的变化,但在涉及生理和生命的医学领域,人工智能落地还将面临哪些挑战?
质与量并重 基础数据仍需“精炼”
不论在何种领域,数据都是让机器聪明起来的根本。
“人工智能若想在医学领域长足发展,数据质量、数据量和标准化方面还有待改进和完善。” 8月6日,天津市肿瘤医院副院长徐波在接受科技日报记者采访时表示。
“医疗大数据如何‘降噪’是个关键问题。”徐波指出,医疗大数据涉及的类型近年来呈多模态发展。而病例数据覆盖面广,服务用户多样,如何构建以病人、医生、医院和政府等多中心的数据治理体系,进而面向不同的用户提供不同的数据视图和分析结果,是医疗大数据采集及研究中亟待解决的问题。
自改革开放以来,我国医学领域发展迅速,信息化程度也在逐渐提高。但是随着医疗设备更新迭代,数据的格式和录入的内容也在不断变化。以慢性病为例,即便是同一位病人在同一家医院治疗,几年前后的数据内容和形式也可能会大有不同。更何况我国医学领域在病种分类、名称方面也有部分尚未统一,还有一些医生会采用口语、简称,如“乳腺癌”和“乳癌”就是不同医师对同一种病症的不同叫法,这也会给人工智能在临床决策或影像分析时平添困扰。
“尽管我国医院的数据庞大, 但由于疾病的复杂性,数据维度、特性各不相同, 质量参差不齐,导致很多细分的病种实际可用数据量少,尤其是较为罕见的疾病类型。如果是多学科交叉的病症可使用的数据量就更加有限了。”徐波表示。
此外,数据共享也存在壁垒。我国当前医院与医院、同一家医院内科系互不相连, 没有统一标准的临床结构化病历报告,不同地域甚至不同医院之间的数据库无法通用。
我国人口数量庞大,医学数据体量也很大,但在某种程度上,人工智能发展却陷入了“无数据可用”的尴尬境地,怎样才能将这座“富矿”充分挖掘出来呢?
“数据标准化和规范化是解决该问题的必经之路。”在徐波看来,应加快医疗数据电子化、标准化的进程, 打破医疗机构的数据壁垒, 建立数据共享机制,进一步“精炼”医学领域数据。
医工结合 学科交叉人才紧缺
“既懂医疗又懂AI技术的复合型、战略型人才极其短缺, 其中10年以上资深人才尤为缺乏。同时, 医务人员对AI的接纳度不足, 部分医务人员甚至对AI抱有抵触心理。”上海市卫生和健康发展研究中心(上海市医学科学技术情报研究所)健康科技创新发展部执行主任何达曾在相关期刊发表文章时提到,AI技术的使用需要对医务人员进行专业化规范培训, 在此背景下, 建立完善的人才培养和人才引进机制是重中之重。
徐波告诉科技日报记者,智能医学领域是人工智能和医疗健康这两个专业性极强领域的结合,如今二者都能深入研究的人才是“香饽饽”。而正是因为二者专业性极强,人才培养的模式才更加复杂、更值得深入探讨。
去年,南开大学和天津大学首次在本科开设智能医学工程专业,开启了培养人工智能+医学领域专业人才的新征程。今年,包括重庆大学、东北大学在内的7所院校也成功申报获批开设相关专业。南开大学医学院相关负责人曾表示,该专业是挂靠在学校医学院下的一个工科专业,为了满足学生学科交叉的学习需求,会邀请外院的教师上课教学。
在徐波看来,智能医学领域发展时间短,能大范围推广的培养模式尚需一定的时间摸索。但归根结底,如果让部分有兴趣的医学生在校期间就能接触到一些人工智能相关的工科基础知识,将会对其后续向着智能医学方向发展起到一定的引导和辅助作用。
虽然现阶段交叉人才缺口很大,但值得庆幸的是,家长和学生对智能医学工程专业高度认可。2018年,天大、南开智能医学工程专业首批招生投放涵盖全国十几个省市,招生期间,民众的相关咨询持续火爆,未投放省市同样反响热烈。
市场良性发展 监管体系亟须加强
除了数据和人才两大基础方向,新兴的智能医学在商业模式和法律监管等方面也需要人们投注目光。
以目前人工智能与医学最常见的结合点——医学影像为例,现阶段该领域的AI产品在国内主要采用免费试用的合作方式,虽然短期来看,医院是获益的,但长远计算,优质AI企业会因长期无法盈利而难以为继,无法持续为医院提供更好的产品。
合理的商业化模式尚在“摸着石头过河”的阶段,而相配套的监管机制也亟须完善。清华大学法学院院长申卫星此前在接受科技日报记者采访时表示,目前只有《民法总则》第127条提出,“法律对数据、网络虚拟财产的保护有规定的,依照其规定”。但具体如何保护数据,并没有详细说明。
以往,机器被归为工具一类,工具造成的损害责任通常是产品设计者、制造者来承担,但如果工具经过人工智能深度学习,成为自主型产品后造成损害,这到底是谁的责任?依旧是产品的责任还是智能系统开发单位的责任?这些疑问都需要明确的法条来解答。
记者了解到,我国不仅对智能医学数据的隐私保护、责任规范、安全性等没有明确的法律指示,人工智能在医疗健康领域应用的质量标准、准入体系、评估体系也未设置详细的准则, 无法对AI数据和算法进行有效验证和评价。
“目前国际上也没有成功的案例经验可供借鉴,发展出一套符合我国国情、相对完善的智能医学监管体系还需要一定的时间和多学科、多行业的研究者和实践者共同努力。”徐波表示,较为科学的监管体系之下,人工智能企业在符合各项标准和法规的范围内探索良性的商业化营收模式,各院所、高校、医院等单位合理利用各自资源,进行有效合作,有助于整个智能医学领域的健康、稳步发展。