人工智能 (AI) 正在改变医疗保健,但它也带来了需要谨慎管理的风险。医疗设备中的人工智能提供先进的诊断能力、个性化治疗以及从临床数据中持续学习。然而,其动态特性带来了算法偏差、性能下降(模型漂移)和网络安全漏洞等挑战。这些问题可能直接影响患者安全,因此结构化风险管理至关重要。
主要亮点:
为了解决这些问题,FDA 等监管机构建立了预定变更控制计划 (PCCP) 和良好机器学习实践 (GMLP) 等框架。这些确保人工智能系统在整个生命周期中保持安全和有效。 NIST AI 风险管理框架和持续实时监控等风险评估工具对于维护设备可靠性和合规性至关重要。
制造商必须优先考虑高质量、多样化的训练数据,实施针对模型漂移的保护措施,并建立网络安全协议。通过整合这些策略,医疗保健组织可以平衡创新与安全,确保人工智能驱动的设备提供可靠的结果。
医疗设备中的人工智能风险类别:挑战和患者安全影响
人工智能驱动的医疗设备动态运行,依赖于数据驱动的决策,而不是固定的“如果-那么”规则。这一转变引入了制造商必须解决的三个主要风险领域,以确保安全性和有效性。下面,我们探讨这些风险及其潜在后果。
人工智能医疗设备的可靠性取决于其训练数据的质量和多样性。当数据集无法代表广泛的患者(跨越种族、民族、年龄、性别和临床背景)时,算法可能会产生有偏差的结果,可能导致代表性不足的群体产生不安全的结果。这不仅引发了公平性担忧,而且还加剧了健康差异,给患者安全带来了真正的风险。
偏差可能源于多种来源,例如不完整或不一致的数据、训练数据不反映现实世界人群时的选择偏差以及数据收集过程中引入的隐性偏差。其他因素,如代理变量和混杂影响,可能会进一步扭曲模型的准确性。
__XLATE_8__
“人工智能组件系统的性能和安全性从根本上取决于用于人工智能算法训练、验证和独立测试的高质量、可靠的数据集。” - MDCG,2025
以人工智能驱动的连续血糖监测仪为例。这些设备在预测低血糖事件方面的准确率高达 98.5%。然而,如果没有持续的监测来解决潜在的偏差,他们可能会产生错误的警报,使糖尿病患者面临风险。确保训练数据集中的人口统计代表性并实施强有力的数据管理实践对于最大限度地减少此类危险至关重要。
与传统软件不同,人工智能系统会适应新数据并不断发展。这种适应性虽然强大,但会带来模型漂移的风险——当现实条件偏离最初训练的环境时,系统的性能会恶化。在没有直接人工监督的情况下,进行自动更新的自适应系统甚至可能会偏离其经过验证的性能。
为了缓解这种情况,制造商正在转向预定变更控制计划 (PCCP),其中概述了具体的变更和协议以确保安全更新。有效的生命周期管理变得不可或缺。截至 2025 年 9 月,FDA 已批准了超过 1,350 种人工智能设备,这凸显了持续监控和稳健的变革管理策略的重要性。
随着医疗设备连接性的增强,网络攻击的风险也随之增加。对抗性攻击可以操纵输入数据以触发不正确的人工智能输出,而数据泄露可能会暴露敏感的患者信息并损害模型的完整性。某些人工智能系统的不透明“黑匣子”性质可能使检测受损模型或不可靠结果变得更加困难。
为了应对这些威胁,制造商应采用安全产品开发框架 (SPDF)。这种方法在设备的整个生命周期中集成了网络安全措施,包括保护数据传输通道、使用强大的身份验证系统、监控异常以及在不影响临床表现的情况下及时部署安全补丁。随着医疗保健系统的互联程度越来越高,一台设备中的漏洞可能会波及整个网络,从而放大风险。
应对这些挑战需要持续的风险评估和主动缓解策略,以保障设备功能和患者安全。
制造商需要结构良好的策略来有效识别和解决人工智能相关风险。这些框架以前面讨论的监管标准为基础,为持续风险管理提供了可行的步骤。它们在先进技术和维护安全之间取得了平衡,允许公司调整其算法,而无需为每次更新提交新的应用程序。这些方法为主动评估人工智能软件的风险提供了一条清晰的途径。
预定变更控制计划(PCCP)已成为管理人工智能医疗设备风险的重要工具。该框架使制造商能够概述对人工智能软件的计划修改并获得批准,而无需为每次更新提交新的营销提交。 PCCP 通过三个基本组成部分运作:
"One of the greatest potential benefits of AI and ML resides in the ability to improve model performance through iterative modifications, including by learning from real-world data." – U.S. Food and Drug Administration
"One of the greatest potential benefits of AI and ML resides in the ability to improve model performance through iterative modifications, including by learning from real-world data." – U.S. Food and Drug Administration
NIST 人工智能风险管理框架 (AI RMF) 对此进行了补充,重点关注四个关键功能:治理(培育风险意识文化)、地图(识别风险及其影响)、测量(通过定量或定性方法评估风险)和管理(根据风险的可能性和影响确定风险的优先级并解决风险)。
另一种方法是 FDA 基于风险的可信度评估框架,它引入了一个七步流程。它首先定义使用环境 (COU),并通过检查模型的影响及其决策的后果来评估风险。该框架确保人工智能模型的性能与其预期目的保持一致。
"Credibility refers to trust, established through the collection of credibility evidence, in the performance of an AI model for a particular COU." – FDA
"Credibility refers to trust, established through the collection of credibility evidence, in the performance of an AI model for a particular COU." – FDA
2025 年 1 月,国际医疗器械监管机构论坛 (IMDRF) 推出了良好机器学习实践 (GMLP) 的 10 项指导原则。产品全生命周期 (TPLC) 方法进一步强调管理从上市前开发到上市后绩效的风险,促进对质量和卓越的承诺。一旦评估了风险,有针对性的缓解策略就变得至关重要。
有效的风险缓解始于强大的数据管理。训练和测试数据集必须既相关(代表种族、民族、疾病严重程度、性别和年龄等因素)又可靠,意味着准确、完整和可追溯。分离训练、调整和测试数据集对于确保独立的数据来源至关重要。
为了消除算法偏差,制造商应评估不同人口亚组的表现,并确认训练数据反映了预期使用人群。为了解决模型漂移问题,应建立性能触发器来确定何时需要重新训练或干预。
在人工智能输出影响临床决策的场景中,人机交互 (HITL) 测试至关重要。让临床医生参与测试和验证可确保模型在实际应用中的安全性和有效性。此外,用户界面应清楚地概述人工智能系统的预期用途、局限性以及开发过程中使用的数据的特征。
为了降低网络安全风险,制造商应实施数据传输加密、强大的身份验证协议以及持续监控异常情况。 PCCP 框架还要求严格的验证和确认流程,确保安全有效地管理更新(无论是全局还是本地)。
制造商可以利用 FDA 的 Q 提交计划来获取有关高风险器械 PCCP 的反馈。不遵守经批准的 PCCP,例如未能满足再培训或性能标准,可能会导致设备根据 FD&C 法案被视为“掺假和贴错标签”。这些框架和缓解策略对于在动态临床环境中维护患者安全至关重要。
一旦部署人工智能驱动的医疗设备,重点就会转移到持续的风险管理上。这种持续的监督对于解决模型漂移等挑战并确保设备保持安全性和有效性至关重要。全产品生命周期方法发挥着关键作用,它可以监控这些设备在现实场景中的表现,同时支持监管标准的合规性。通过建立在既定的风险评估实践的基础上,持续监控可确保设备继续满足开发过程中设定的安全性和有效性基准。
人工智能模型面临着称为模型漂移的独特挑战,随着现实世界数据的发展和与训练数据的偏离,它们的性能可能会随着时间的推移而下降。认识到这一点,国际医疗器械监管机构论坛 (IMDRF) 在良好机器学习实践 (GMLP) 原则 10 中强调,需要积极监控已部署模型的性能,并仔细管理再培训风险。
Real-time monitoring is a key component of post-market surveillance. It continuously evaluates an AI device's accuracy and reliability against pre-established acceptance criteria outlined in its Modification Protocol. If performance metrics fall below these thresholds, it indicates a deviation from the authorized Predetermined Change Control Plan (PCCP). Effective monitoring systems track critical metrics like sensitivity, specificity, and positive predictive value, with the level of scrutiny tailored to the device’s risk profile. Manufacturers must also define clear performance triggers in their Algorithm Change Protocol (ACP) to determine when intervention, such as re-training, is necessary.
__XLATE_28__
“人工智能/机器学习在软件中的最大好处之一在于它能够从现实世界的使用和经验中学习,以及提高其性能的能力”。
然而,这种适应性需要强有力的保障措施。监控系统需要自动检测故障,并在必要时将设备恢复到稳定版本或停止潜在的不安全更改。对于用于危重诊断或治疗的高风险器械,临床评估结果应由独立专家审查,以确保评估的公正性。
为了进一步加强监控,制造商可以收集真实世界性能数据 (RWPD)。这些数据包括安全记录、性能结果和用户反馈,提供有关设备如何在各种临床环境中运行的见解。此外,维护版本控制和所有更改的详细文档可以创建清晰的审计跟踪。这不仅支持法规遵从性,还有助于有效识别和解决性能问题。
通过仔细记录这些变化,制造商可以将持续监控转化为可提高安全性和合规性的可行步骤。
准确一致的修改、性能评估和偏差记录对于满足监管要求和维护透明的审计跟踪至关重要。
Prompts.ai 通过为 AI 工作流程提供企业级治理工具和自动审计跟踪来简化此流程。通过统一的界面,制造商可以在安全、集中的环境中记录模型更改、跟踪性能指标并管理超过 35 种领先大型语言模型的版本控制。这些功能可确保一致的文档实践,同时提供实时 FinOps 成本控制,帮助组织满足监管机构要求的透明度和报告标准。
The platform’s audit trail capabilities align with Quality System regulations (21 CFR Part 820), which require manufacturers to maintain a detailed "change history" and rigorous version control within the device master record. For organizations managing PCCPs across multiple AI-enabled devices, Prompts.ai’s centralized governance framework streamlines compliance by making all modifications, performance evaluations, and risk assessments easily accessible for regulatory reviews. This approach not only ensures transparency but also fosters trust among regulators and healthcare providers, allowing teams to concentrate on innovation without being bogged down by administrative tasks.
AI-powered medical devices that continuously learn demand a dynamic approach to risk management. The Total Product Lifecycle (TPLC) framework addresses this need by focusing on safety from the design phase all the way through real-world implementation. This method acknowledges that managing AI risks isn’t a one-time task but an ongoing process throughout the device’s lifespan. By connecting the dots between initial design and real-world application, the TPLC framework lays the groundwork for continuous regulatory and clinical integration.
最近对监管指南的更新,例如修订后的 PCCP 和 GMLP,为制造商提供了更清晰的技术进步途径。
__XLATE_36__
“我们的愿景是,通过适当定制的监管监督,基于 AI/ML 的 SaMD 将提供安全有效的软件功能,从而提高患者接受的护理质量。” - FDA
建立对人工智能设备的信任需要的不仅仅是满足监管标准,还取决于透明度。解决偏差、监控模型漂移和彻底记录变化等问题是上市后监督的重要组成部分。将这些实践与既定质量管理体系标准(例如 ISO 13485)保持一致的公司,可以为基于风险的决策奠定坚实的基础,从而使包括制造商、临床医生和患者在内的所有利益相关者受益。
The transition from static, "locked" algorithms to adaptive, continuously learning systems brings both opportunity and responsibility. When paired with ongoing surveillance, these strategies ensure that safety remains a priority over time. By adopting comprehensive risk management approaches aligned with the TPLC framework, healthcare organizations can fully leverage AI's potential while keeping patient safety at the forefront at every stage of a device’s lifecycle.
制造商可以从多样化且具有代表性的训练数据集开始,采取有意义的措施来解决人工智能医疗设备中的算法偏差。这些数据集应涵盖广泛的患者人口统计数据,包括年龄、性别、种族和临床亚组的变化。确保这种多样性可以最大限度地减少代表性不足的风险,这种风险可能导致有偏见的结果。
Before deployment, it’s essential to test for bias using statistical measures, such as analyzing differences in sensitivity or false-positive rates across groups. This proactive approach helps identify and address potential disparities early. Once the device is in use, continuous monitoring of its real-world performance across all subpopulations is crucial. If any discrepancies emerge, manufacturers can recalibrate or retrain the algorithm using updated, more representative data.
透明度也发挥着关键作用。通过维护数据源、预处理方法和模型训练过程的全面记录,制造商可以进行彻底的审核并培养信任。这些实践有助于开发更安全、更公平的人工智能医疗设备,确保它们在所有患者群体中可靠地运行。
管理人工智能医疗设备中的模型漂移需要持续保持警惕,以保持安全性和性能。首先在部署期间为输入特征和模型输出设置明确的基准性能指标和参考分布。在此基础上,密切关注关键指标,例如预测模式的变化、输入特征的变化、置信度以及(如果可能)准确性或错误率。
When a metric crosses a predefined threshold (for instance, a drop in accuracy or a noticeable shift in data), trigger an alert to investigate further. Conduct a root-cause analysis to determine the type of drift - whether it’s related to data, concepts, or covariates. After identifying the issue, retrain or fine-tune the model using recent, representative datasets. Make sure to validate the updated model thoroughly, and only redeploy it after confirming it meets all safety and compliance standards.
Every drift event, analysis, and corrective action should be documented as part of the device’s lifecycle management. Adhering to a Predetermined Change Control Plan (PCCP) is critical for regulatory compliance. This plan provides a structured approach for monitoring, retraining, and implementing updates safely, ensuring that manufacturers can uphold patient safety and model reliability in practical, real-world applications.
人工智能驱动的医疗设备中的有效网络安全对于在设备整个生命周期中保障患者安全和数据完整性至关重要。为了实现这一目标,应遵循几种最佳实践,首先是全面的威胁和漏洞评估。安全的软件开发实践以及静态和传输中数据的加密在降低风险方面发挥着至关重要的作用。此外,强大的身份验证协议、基于角色的访问控制和例行代码审查对于确保强大的防御是必要的。
制造商还必须优先考虑安全补丁管理,并建立部署后安全更新人工智能模型的机制。持续监控异常活动、定期进行漏洞扫描以及明确概述的事件响应计划,可以在发生违规事件时快速采取行动。网络分段是另一个重要策略,因为它将医疗设备流量与其他 IT 系统隔离,从而减少潜在威胁。通过结合这些措施,制造商可以确保人工智能驱动的医疗设备保持安全、可靠和合规。

