Press "Enter" to skip to content

这篇AI论文提出了“伟大的倡议”道德框架:以军事启发的方法来确保医疗中负责任的人工智能

一组来自匹兹堡大学、威尔·康奈尔医学院、远程医疗与先进技术研究中心、统一服务大学、布鲁克陆军医学中心和匹兹堡医疗中心的研究人员,对健康领域中生成性人工智能的伦理原则进行了研究,特别关注透明度、偏见建模和伦理决策问题。 他们提出了一个名为GREAT PLEA原则的框架,代表着治理性、可靠性、公平性、问责制、可追溯性、隐私性、合法性、移情和自律性。 该框架倡导积极采纳和扩大这些原则在健康领域中,以应对从生成性人工智能整合中可能出现的伦理困境。

该研究将军事和医疗服务进行了对比,强调了迅速决策的共同需求。它探讨了生成性人工智能在健康领域的变革潜力,承认了透明度和偏见等伦理关切。它引入了军事伦理所启发的实践框架,旨在积极应对生成性人工智能与健康领域整合中的伦理挑战,强调治理、公平和移情在决策过程中的重要性。

人工智能在军事和医疗等各个领域的不断发展,凸显了伦理考虑的必要性。它提及了美国国防部和北约对军事人工智能伦理的披露。探索人工智能对医疗的影响,包括潜在的临床部门替代品,它重点关注生成性人工智能的变革潜力。它强调了健康领域中生成性人工智能缺乏特定伦理原则的现状,强调了军事和医疗部门在人工智能优先事项上的汇聚。

该研究提出了源于军事的生成性人工智能伦理原则。通过对比军事和医疗领域中的伦理关切,形成了GREAT PLEA原则,解决了治理性、可靠性、公平性、问责制、可追溯性、隐私性、合法性、移情和自律性等问题。研究人员强调透明度和文档记录的重要性,强调对健康领域中生成性人工智能系统的最终用户进行教育,确保对能力和限制的了解,以优化信任和伦理使用。研究团队还强调了提升医疗中人类创造力、生产力和问题解决能力的道德意义,同时改善患者护理。

总之,该研究建议以军事为灵感,提出了一个名为GREAT PLEA的伦理原则框架,将生成性人工智能融入到健康领域中。该框架强调了透明度、文档记录和可追溯性在增强信任和维护健康实践中的伦理标准的重要性。教育最终用户并积极应对生成性人工智能中的伦理挑战,以改善患者护理至关重要。

本文来自这篇人工智能论文提出了“GREAT PLEA”伦理框架:用于负责任的医疗人工智能的军事灵感方法,最早发表于MarkTechPost

Leave a Reply

Your email address will not be published. Required fields are marked *