在2022年,公司平均拥有3.8个AI模型正在运作。如今,有十分之七的公司正在尝试生成式人工智能,这意味着未来几年内生产中的AI模型数量将会激增。由此,关于负责任的AI的行业讨论变得更加紧迫。
好消息是,超过一半的组织已经推动AI伦理。然而,大约仅有20%的组织已经实施了包括框架、治理和监测AI模型发展以及主动识别和减少风险的全面计划。鉴于AI发展的快速速度,领导者们应该立即开始实施框架和成熟的流程。全球范围内的监管已经在逐渐出现,已经有一半的组织出现了负责任的AI失败。
实施负责任AI的挑战
负责任的AI涉及到20个不同的业务功能,增加了流程和决策的复杂性。负责任的AI团队必须与关键利益相关者合作,包括领导层、业务所有者、数据、AI和IT团队以及合作伙伴,以实现以下目标:
- 构建公平且无偏见的AI解决方案:团队和合作伙伴可以使用不同的技术,例如探索性数据分析,以在开发解决方案之前识别和减少潜在的偏见,从而从一开始就以公平的角度构建模型。团队和合作伙伴还可以审查预处理、算法设计和后处理中使用的数据,以确保其代表性和平衡性。此外,他们还可以使用群体和个体公平性技术,确保算法公平对待不同的群体和个体。而反事实公平性方法则可以在更改某些因素后对模型结果进行建模,有助于识别和解决偏见。
- 促进AI的透明度和可解释性:AI的透明度意味着易于理解AI模型的工作原理和决策过程。可解释性意味着这些决策可以以非技术术语轻松传达给他人。使用共同的术语,与利益相关者定期讨论,并创建AI意识和持续学习的文化,可以帮助实现这些目标。
- 确保数据隐私和安全:AI模型使用大量的数据。公司正在利用第一方和第三方数据为模型提供数据。他们还使用保护隐私的学习技术,例如创建合成数据来解决稀疏性问题。领导者和团队需要审查和改进数据隐私和安全保障措施,以确保机密和敏感数据在新的使用方式下仍然受到保护。例如,合成数据应该模拟客户的关键特征,但不可追溯到个人身份。
- 实施治理:治理将根据企业的AI成熟度而有所不同。然而,公司应该从一开始就设定AI原则和政策。随着他们对AI模型的使用增加,他们可以任命AI官员,实施框架,建立问责制和报告机制,并开展反馈循环和持续改进计划。
负责任AI计划的关键因素
那么,什么使负责任的AI领导者与其他公司不同?他们:
- 制定AI的愿景和目标:领导者向团队传达其对AI的愿景和目标,以及它们对公司、客户和社会的好处。
- 设定期望:高层领导与团队设定正确的期望,从头开始打造负责任的AI解决方案,而不是在完成后进行改造。
- 实施框架和流程:合作伙伴提供透明的负责任AI框架和流程以及保护措施。例如,数据隐私、公平性和偏见检查应该内置于初始数据准备、模型开发和持续监测中。
- 获取领域、行业和AI技能:团队希望加快AI解决方案的创新,提高业务竞争力。他们可以寻求合作伙伴提供相关领域和行业技能,例如数据和AI战略制定和执行,以及与客户分析、营销技术、供应链等能力相结合。合作伙伴还可以提供全方位的AI技能,包括大型语言模型(LLM)工程、开发、运营和平台工程能力,利用负责任AI框架和流程来设计、开发、运营和产品化解决方案。
- 获取加速器:合作伙伴提供访问AI生态系统,将负责任的传统和生成式AI试点项目的开发时间缩短高达50%。企业获得增加市场竞争力的垂直解决方案。
- 确保团队采用和问责制:企业和合作伙伴团队接受新策略和流程的培训。此外,企业还会对团队遵守关键政策进行审核。
- 使用正确的指标来衡量结果:领导者和团队使用基准和其他指标来展示负责任AI如何为业务创造价值,以保持利益相关者的参与度。
- 监测AI系统:合作伙伴提供模型监测服务,积极解决问题,并确保其提供可信的结果。
制定负责任的人工智能计划
如果您的公司正在加速人工智能创新,您可能需要一个负责任的人工智能计划。积极采取行动,减少风险,完善计划和流程,并向利益相关方展示责任。
合作伙伴可以提供您需要的技能、框架、工具和合作关系,以负责任的人工智能实现商业价值。部署公平和无偏见的模型,强制执行控制措施,增加对公司要求的合规性,并为即将出台的法规做好准备。