世卫组织发布第一份关于卫生领域人工智能(AI)及其设计和使用六项指导原则的全球报告
根据今天发布的世卫组织新指南,人工智能 (AI) 有望改善全球医疗保健和药物的提供,但前提是将道德和人权置于其设计、部署和使用的核心位置。
那个报告, 人工智能促进健康的伦理和治理, 是由世卫组织任命的国际专家小组进行 2 年磋商的结果.
世卫组织总干事谭德塞博士说:“与所有新技术一样,人工智能在改善全世界数百万人的健康方面具有巨大潜力,但与所有技术一样,它也可能被滥用并造成伤害。” “这份重要的新报告为各国如何最大限度地发挥人工智能的好处,同时最大限度地减少其风险和避免其陷阱提供了宝贵的指导。”
人工智能可以,并且在一些富裕国家已经被用于提高疾病诊断和筛查的速度和准确性;协助临床护理;加强卫生研究和药物开发,支持多种公共卫生干预措施,例如疾病监测、疫情应对和卫生系统管理。
人工智能还可以让患者更好地控制自己的医疗保健,并更好地了解他们不断变化的需求。它还可以使资源贫乏的国家和农村社区,在那里患者往往难以获得卫生保健工作者或医疗专业人员,弥合获得卫生服务方面的差距。
然而,世卫组织的新报告告诫不要高估人工智能对健康的好处,尤其是当这种情况以实现全民健康覆盖所需的核心投资和战略为代价时。
它还指出机遇与挑战和风险有关,包括不道德地收集和使用健康数据;算法中编码的偏见,以及人工智能对患者安全、网络安全和环境的风险。
例如,虽然私营和公共部门对人工智能开发和部署的投资至关重要,但人工智能的不受监管使用可能会使患者和社区的权利和利益从属于科技公司强大的商业利益或政府在监控和部署方面的利益。社会控制。
该报告还强调,主要根据从高收入国家个人收集的数据进行培训的系统可能对低收入和中等收入国家的个人表现不佳。
因此,人工智能系统应经过精心设计,以反映社会经济和医疗保健环境的多样性。他们应该伴随着数字技能、社区参与和提高意识方面的培训,特别是对于数百万需要数字素养或如果他们的角色和职能是自动化的再培训,并且必须与可能挑战决策的机器抗争的医护人员——提供者和患者的自主权。
最终,在现有法律和人权义务以及体现道德原则的新法律和政策的指导下,政府、供应商和设计者必须共同努力解决人工智能技术设计、开发和部署每个阶段的道德和人权问题.
确保人工智能为所有国家的公共利益服务的六项原则
为了限制风险并最大限度地利用人工智能促进健康的内在机会,世卫组织提供以下原则作为人工智能监管和治理的基础:
保护人类自主权:在医疗保健方面,这意味着人类应该继续控制医疗保健系统和医疗决策;应保护隐私和机密性,患者必须通过适当的数据保护法律框架给予有效的知情同意。
促进人类福祉和安全以及公共利益。 人工智能技术的设计者应满足明确定义的用例或适应症的安全性、准确性和有效性的监管要求。必须提供实践中的质量控制措施和人工智能使用中的质量改进措施。
确保透明度、可解释性和可理解性。 透明度要求在设计或部署人工智能技术之前发布或记录足够的信息。此类信息必须易于获取,并有助于就技术的设计方式以及应该或不应该如何使用技术进行有意义的公众咨询和辩论。
培养责任感和责任感。 尽管人工智能技术执行特定任务,但利益相关者有责任确保在适当的条件下并由经过适当培训的人员使用它们。对于受到基于算法的决定的不利影响的个人和群体,应该有有效的机制来进行质疑和纠正。
确保包容性和公平性。 包容性要求健康人工智能旨在鼓励尽可能广泛的公平使用和获取,而不论年龄、性别、性别、收入、种族、民族、性取向、能力或受人权法保护的其他特征。
促进具有响应性和可持续性的人工智能。 设计者、开发者和用户应在实际使用过程中持续、透明地评估人工智能应用程序,以确定人工智能是否充分、适当地响应期望和要求。人工智能系统的设计还应尽量减少对环境的影响并提高能源效率。政府和公司应解决工作场所的预期中断问题,包括培训医护人员以适应人工智能系统的使用,以及因使用自动化系统而导致的潜在失业。
这些原则将指导世卫组织未来的工作,以支持努力确保人工智能在医疗保健和公共卫生方面的全部潜力被用于造福所有人。
来自 https://www.who.int/news/item/28-06-2021-who-issues-first-global-report-on-ai-in-health-and-six-guiding-principles-for-its -设计和使用