医疗AI深水区:仍然需要解决的一些大问题
你的这个产品在临床使用时预测准确率达到多少?
你刚说准确率达到了多少,安全性怎么保证?
你的产品目前是第几代,盈利模式是怎样的?
……
随着人工智能技术的发展,语音交互、计算机视觉和认知计算、深度学习等技术也逐渐成熟,人工智能医疗领域的各项运用变成了可能,如语音录入病历、医疗影像智能识别、辅助诊疗、医疗机器人、个人健康大数据的智能分析及AI医药研发等。
然而具体到实际的应用,三年前,人工智能先驱Geoffrey Hinton曾信誓旦旦地说:“我们现在应该停止培训放射科医生。五年之内,深度学习将比放射科医生做得更好。”如今,全球数百家新兴公司都在探索将深度学习应用于放射学,然而被AI取代的放射科医生的数量是多少呢,放射科医生在全球范围内仍然非常短缺。
今天的人工智能+医疗,除了信任和商业化,还面临政策、监管等方面的挑战,近日腾讯集团法务部发布了《医疗人工智能产业监管及法律研究》(以下简称《报告》),就医疗AI领域的法律与监管主题进行了探讨和研究分析。
《报告》指出,医疗AI面临的法律及监管问题包括:医疗人工智能产品在进入市场时是否需要作为医疗器械进行注册;在医疗人工智能产品的研发及运行过程中如何对健康医疗数据、个人信息进行合法使用;如何确认医疗人工智能产品在使用过程中的产品责任和医疗损害责任;如何对医疗人工智能产品的知识产权进行保护;如何面对和规避医疗人工智能产品所带来的医学伦理问题等。
“当前法律规定,收集和使用个人信息要满足公开透明、最小够用原则,但医疗AI使用信息的复杂性和黑箱测试的不可知性使得上述原则很难被满足。而且,医疗AI的开发者从第三方获取数据时面临的审查义务边界,法律也没有明确规定”,面对这些困境,《报告》指出,目前国际上通用的合规做法是“去标识化”。
“去标识化”是指通过对个人信息的技术处理,使其在不借助额外信息的情况下,无法识别到个人信息主体的过程,经过“去标识化”处理的个人信息即成为“去标识化信息”。使用“去标识化信息”有助于降低数据安全风险,更有利于保障个人的信息安全。
但《报告》显示,我国对健康医疗数据去标识化的标准在具体执行上还尚未统一,开发者很难判断信息被处理到什么程度才属于去标识化信息。
有专家表示,希望相关部门尽快出台医疗健康信息去标识化的标准,并可适当放宽使用去标识化信息的限制要求,以促进医疗AI技术的合规发展。
2017年初的一份欧洲议会报告认为:“从长计议,为机器人创造一个独立的法律地位,至少让最精密复杂的自动机器人具有电子人的身份,使他们为可能造成的损害负责,并可能将电子人身份应用于机器人做出自主决定或以其他方式独立地与第三方互动的情境。”
然而,授予人工智能法人资格的话题引起了巨大争议。报告发布后不久,包括计算机科学家、法学教授和公司首席执行官在内的、来自14个欧洲国家的156名人工智能专家联名签署了公开信,警告说从“法律和伦理角度”来看,授予机器人法人资格是“不恰当的”。
虽然因受限于技术的发展,针对上述伦理困境在现阶段尚难以给出明确答案。但《报告》认为,随着科技的不断进步,应当对该类问题保持关注,逐步探索并建立医疗专业人士利用AI作出诊断决策的伦理规范和行为准则,以适应AI在医疗领域更加广泛和深入的应用。
目前仍未看到各国直接针对医疗AI相关的数据垄断问题进行专门立法,但一些国家出台政策鼓励数据的开放共享。
我国目前在政务数据开放和公共企事业单位数据的开放方面已做出了规划;欧盟委员会已将建立出于研究目的的健康数据的安全访问和跨境交换的技术规范提上了日程;美国通过《21世纪治愈法案》确立了打击数据阻隔、鼓励数据共享的总体方向。
《报告》建议,立法者可以专注各国在医疗数据共享方面的进展,逐步建立医疗数据共享的统一标准,在解决医疗数据来源合法性的问题的基础上,进一步推进医疗数据的公平共享,保证医疗AI开发者安全合法的使用数据,以促进医疗AI开发者的公平竞争。
国家卫健委通过《国家健康医疗大数据标准、安全和服务管理办法(试行)》第三十条进一步规定:“健康医疗大数据应当存储在境内安全可信的服务器上,因业务需要确需向境外提供的,应当按照相关法律法规及有关要求进行安全评估审核。”
《报告》认为,如何能够在保障公民和国家利益的同时,持续推动健康医疗大数据的流动和相关科技产业的健康发展,是今后值得继续深入探索的现实命题。
参考资料
1.《这份报告超前沿:医疗AI是不是“电子人” 医疗数据如何“脱敏”》,21世纪经济报道;
2.Advancing AI in health care: It’s all about trust,https://www.statnews.com/2019/10/23/advancing-ai-health-care-trust/
文章评论(0)