当前位置:首页 > 最新资讯 > 行业资讯

AI治理的内容、方式及其产生的原因

AI治理的内容、方式及其产生的原因

自诞生以来,AI一直是一个强大的工具,通过自动化任务和简化操作,构建更好的技术,并使最终用户体验更轻松和更个性化,帮助改善内部运营。虽然AI对社会的影响并不新鲜,但更先进的AI解决方案的崛起引发了人们对这些技术将如何利用的担忧。

AI的繁荣创造了对强大的AI治理的巨大需求。在宏伟的计划中,AI治理是一个整体术语,对许多不同的群体可能意味着许多不同的事情,可能是因为可以(也应该)实施的治理的多个层次。具体来说,AI治理可以分为三个层次:企业治理、用例治理、模型治理。由于治理的每一层对于任何企业的不同成员都有一个特定的目的,因此必须更详细地检查这三个治理级别。

治理的企业层面

在任何多层AI治理计划中,第一个级别是企业级别,这一级别起着指导的作用,帮助所有从业者坚持特定的、必要的道德和责任级别。每家公司可能都有自己专有的AI行为准则,但它通常围绕几个关键原则。例如,万事达卡建立了一套以三项核心原则为核心的AI行为准则:包容性、可解释性和责任感。核心原则可能有所不同,但对于构建类似的基于价值观的使命声明的公司来说,这是一个很好的参考。

虽然使命声明是重要的起点,但企业层面的治理不仅仅是文字,它们对于帮助企业在为时已晚之前为即将到来的AI法规做好准备至关重要。在这一层面上,定义参与AI开发的每个成员的责任对于部署成功的实施程序至关重要。每个有效的AI治理计划都明确定义了AI伦理、责任和安全的内部政策,并制定了持续执行这些政策的流程。

幸运的是,企业在实施这些政策时不必从头开始。现有的政策和框架,如NISTAI风险管理框架和欧盟AI法案,就企业如何建立成功的企业治理水平提供了明确的指导。例如,NIST框架的“治理”支柱列出了各种企业治理政策和流程,而欧盟AI法案包含了几条概述AI治理的企业要求的条款。

治理的用例级别

AI治理的第二个级别侧重于任何业务中AI的特定用例。用例级别的治理主要集中于确保AI的任何应用程序及其对特定任务的使用都符合所有必要的治理标准,这是因为不适当地使用AI所产生的风险与它将如何应用于任何企业的运营密切相关。

AI模型可以用于许多不同的事情,这些用例可以分为两个单独的类别:低风险和高风险。例如,低风险用例可能是简单的任务,比如总结会议笔记。相比之下,高风险用例,如汇总医疗患者记录,涉及更敏感的信息,因此需要更多的审查。在这个阶段,风险映射和缓解也是成功的关键,这通常依赖于法律和合规团队发挥主要作用,特别是在审查和仔细审查AI用例和预期目标方面。

这一级别的治理也映射到总体企业级别的治理,因为这些法律和合规团队将需要确认每个AI用例都符合监管要求和参数。正如这些团队的参与可能暗示的那样,用例级别的治理意味着企业必须仔细和勤奋地记录低风险和高风险用例的几件事,包括将AI用于特定任务的预期目标、为什么AI是适当的理由、特定于上下文的风险,以及降低整个企业中的风险的技术和非技术缓解策略。

模型级治理

最后也是最细粒度的级别是治理的模型级别。在这个阶段,AI从业者将承担主要责任,包括模型评估、数据准确性测试以及进行模型偏差和公平性评估。

顾名思义,模型级治理迎合了任何AI系统的实际技术功能,并确保它们满足预期的公平、准确和安全标准。更具体地说,负责管理治理模式级别的从业人员必须采取措施,考虑到保护私人信息,同时确认不存在可能影响受保护或边缘化群体的偏见。

在技术层面,治理的模型级别还必须持续测试模型,以防止模型漂移,当模型的预测能力因外部环境的变化而降低时,模型漂移就会发生。模型漂移可能有几个原因,比如模型没有时间“赶上”的人口结构变化。幸运的是,尽管模型漂移和偏差可能会在人为监督下发生,但治理的模型级别可以得到帮助准确训练和评估数据集的技术解决方案的支持。

由于这种类型的治理具有高度集中的性质,因此企业可能只有在某些时候才有可能实现特定的模型级别策略,尤其是在访问诸如ChatGPT等公开可用的大型语言模型时。如果公司发现自己处于这种境地,他们将需要加倍管理他们可以控制的东西,例如用例和治理的企业级别。

AI治理不能再仅仅专注于评估ML模型和数据集,企业级、用例和模型级治理的组合将创建企业负责任地使用AI所需的整体治理模型。随着监管指导的继续形成,企业可以采取行动建立他们的治理政策,为立法可能导致的任何彻底变化做好准备,并对建设合规、道德和准确的AI更有信心。

猜你喜欢