这些问题都没有解决在医学领域AI只能“放下”

2019-08-12 10:11  来源: 科技日报

原标题:可用数据有限、学科人才紧缺、相关标准法律不完善

这些问题不解决 在医疗领域AI只能“打下手”

智能“阅读”,临床决策,护理机器人.近年来,随着人工智能的快速发展,人工智能与医学相结合的相关技术的发展也得到了全面展开。

最近,人工智能在药物研究和开发领域迈出了重要的一步。澳大利亚研究团队已将世界首个AI设计药物——“涡轮增压”流感疫苗推向人体试验。这种药已经开发了两年。

就像“互联网+”一样,“人工智能+”模型将不可避免地带来生活中翻天覆地的变化,但在涉及生理和生活的医学领域,人工智能将面临哪些挑战?

质与量并重 基础数据仍需“精炼”

无论哪个领域,数据都是使机器智能化的基础。

“如果人工智能在医学领域迅速发展,数据质量,数据量和标准化仍有待改进和改进。” 8月6日,天津市肿瘤医院副院长徐波在接受“科技日报”采访时说。

“如何通过医疗大数据降低噪声是一个关键问题。”徐波指出,近年来医学大数据涉及的类型以多模式发展。案例数据覆盖面广,服务用户多样化。如何构建患者,医生,医院和政府等多中心数据治理系统,为不同用户提供不同的数据视图和分析结果,是医学大数据的收集和研究。需要解决的问题。

改革开放以来,中国医学领域发展迅速,信息化程度逐步提高。但随着医疗设备更新的迭代,数据的格式和输入的内容不断变化。以慢性病为例,即使同一病人在同一家医院接受治疗,数据的内容和形式也可能在几年内有很大差异。更重要的是,中国医疗领域的某些部分在疾病分类和名称方面尚未统一。一些医生会使用口语和缩写词,例如“乳腺癌”和“乳腺癌”,它们是同一疾病的不同医生的不同名称。它可以为临床决策或图像分析添加人工智能。

“虽然中国医院的数据量巨大,但由于疾病的复杂性,数据的规模和特征不同,质量参差不齐,导致许多细分疾病的实际可用数据量很少,尤其是罕见的疾病类型。可以在多学科疾病中使用的数据量更加有限,“徐波说。

此外,数据共享存在障碍。中国目前的医院和医院,同一医院内部部门没有连接,没有统一标准的临床结构化医疗记录,不同地区甚至不同医院之间的数据库不能普及。

中国人口众多,医疗数据量很大。然而,在某种程度上,人工智能的发展已陷入“无数据可用”的尴尬局面。我们怎样才能充分利用这个“富矿”?

“数据标准化和标准化是解决这一问题的唯一方法。”徐波认为,有必要加快电子数据的进程和医疗数据的标准化,打破医疗机构的数据障碍,建立数据共享机制,进一步“提炼”医药。域数据。

医工结合 学科交叉人才紧缺

“了解医疗和人工智能技术的综合性和战略性人才供不应求。其中,十多年的高级人才特别缺乏。与此同时,医务人员对人工智能的接受程度不够,一些医务人员甚至对人工智能产生了抵抗情绪。“上海市卫生与健康发展中心卫生科技创新发展部执行主任医学科技信息中心已在相关期刊中提到,人工智能技术的使用需要对医务人员进行专门培训。在此背景下,建立健全人才培养和人才引进机制是当务之急。

徐波告诉“科技日报”记者,智能医学领域是人工智能和医疗卫生两大领域的结合。如今,两者都可以深入研究的人才是“湘乡”。正是由于他们强大的专业精神,人才培养模式更加复杂,值得进一步探讨。

去年,南开大学和天津大学开设了智能医学工程专业的第一个专业,开辟了人工智能+医学领域专业人才培养的新征程。今年,包括重庆大学和东北大学在内的七所院校也成功申请了相关专业的批准。南开大学医学院相关负责人曾说过,该专业是该校医学院附属的工程专业。为了满足学生的学习需要,将邀请外院的教师进行教学。

徐波认为,智能医学领域的发展很短,可以广泛推广的培训模式还需要一定的时间来探索。但归根结底,如果一些感兴趣的医学生能够在学校获得与人工智能相关的工程基础知识,他们将在智能医学的发展中起到一定的指导和支撑作用。

尽管在这个阶段交叉培训存在很大差距,但幸运的是,家长和学生对智能医学工程专业的认可度很高。 2018年,天大和南开智能医疗工程项目首批招生覆盖全国十几个省市。在入学期间,人民的有关协商仍然很热,没有得到同样的答复。

市场良性发展 监管体系亟须加强

除了数据和人才的两个基本方向外,新兴的智能医学还需要人们打赌商业模式和法律监督。

以当前的人工智能和医学最常见的医学图像——为例,在这个阶段,该领域的AI产品主要采用免费试用合作模式。虽然在短期内,医院受益,但长期计算,高质量的人工智能公司将不可持续,因为他们长期无法盈利,他们将无法继续为医院提供更好的产品。

一个合理的商业化模式仍然处于“摸着石头过河”的阶段,支持的监管机制不需要完善。清华大学法学院院长沉卫,在接受“科技日报”采访时表示,只有《民法总则》第127条提出“法律对数据和网络虚拟财产的保护有相关规定”,有条款。“但是,如何保护数据并不详细。

过去,机器被归类为工具。工具造成的损坏责任通常由产品设计师和制造商承担。但是,如果这些工具是通过人工智能深入学习并在成为独立产品后成为损害赔偿的,谁负责?它仍然是产品的责任还是智能系统开发部门的责任?这些问题需要明确的规则来回答。

记者了解到,中国对隐私保护,责任监管和智能医疗数据安全没有明确的法律指示。医疗和健康领域的人工智能应用的质量标准,访问系统和评估系统尚未制定详细的指导方针。无法验证和评估AI数据和算法。

“目前,国际社会没有成功的案例经验可供参考。需要一定的时间和多学科,多行业的研究人员和从业人员共同开发一个相对智能的医疗监督系统。符合中国国情。“徐波说,在更科学的监管体制下,人工智能企业在符合各种标准和规定的范围内探索良性商业收入模式,各机构,大学,医院等单位合理利用资源,有效合作将有助于整个智能医药领域的健康稳定发展。 (实习记者于子月)

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。
Top