当前位置:首页 > 最新资讯 > 行业资讯

NIST:人工智能偏见远远超出数据本身

​到目前为止,应该没有人会质疑大多数人工智能都是建立在某种程度上有问题的偏见之上的,而且目前也在使用这种偏见。这是一个被观察和证实了数百次的挑战。组织机构面临的挑战是根除人工智能偏见,而不是仅仅满足于推动更好的、无偏见的数据。

在对其出版物《迈向人工智能中识别和管理偏见的标准》(NIST 1270特别出版物)的一次重大修订中,在去年的公众评论期之后,美国国家标准与技术研究所(NIST)提出了一个强有力的论点,即超越数据甚至ML过程来发现和摧毁AI偏见。

作者们没有指责收集不当或标记不当的数据,而是表示,人工智能偏见的下一个前沿是“人类和系统的制度和社会因素”,并推动从社会技术角度寻找更好的答案。

“环境决定一切,”NIST人工智能偏见的首席研究员、该报告的作者之一瑞瓦·施瓦茨(Reva Schwartz)说。“人工智能系统不是孤立运行的。他们帮助人们做出直接影响他人生活的决定。如果我们要开发值得信赖的人工智能系统,我们需要考虑所有可能削弱公众对人工智能的信任的因素。这些因素中有许多已经超越了技术本身,还影响了技术,我们从各种各样的人和组织收到的评论都强调了这一点。”

造成人工智能偏见的人为和系统偏见是什么?

根据NIST的报告,人类基础分为两大类:个体和群体,每个类别下都有许多特定的偏见。

个体的人类偏见包括自动化自满,即人们过度依赖自动化技能;内隐偏见,一种影响某人做决定的无意识的信念、态度、联想或刻板印象;还有确认偏见,也就是人们更喜欢与他们现有信念一致或一致的信息。

群体人类基础包括群体思维(groupthink),即人们出于顺应群体或避免分歧的愿望而做出非最优决策的现象;资金偏见,当报告有偏见的结果以满足一个资助机构或财政支持者,这反过来可能会受到额外的个人/群体偏见的影响。

对于系统性偏见,NIST报告将其定义为历史的、社会的和制度的。从本质上讲,长期存在的偏见随着时间的推移已经被编入社会和机构,并在很大程度上被视为“事实”或“事情就是这样的”。

这些偏见之所以重要,是因为人工智能部署对当今组织的工作方式有多么大的影响。由于种族偏见的数据,人们被剥夺了抵押贷款,剥夺了他们首次拥有住房的机会。求职者被拒绝面试,因为人工智能被训练成历史上的雇佣决定,这更倾向于男性而不是女性。有前途的年轻学生会因为他们的姓氏与过去成功人士的名字不匹配而被大学拒绝面试或录取。

换句话说:有偏见的人工智能创造了与效率开口一样多的锁门 。 如果组织不积极努力消除部署中的偏见,他们很快就会发现自己在思考和操作方面严重缺乏信任。

NIST 推荐的社会技术观点是什么?

其核心是认识到任何人工智能应用的结果都不只是数学和计算输入。它们是由开发人员或数据科学家制作的,他们的职位和机构各不相同,他们都有一定程度的负担。

NIST的报告中写道:“人工智能的社会技术方法考虑了从数据集建模的价值和行为,与它们交互的人类,以及复杂的组织因素,这些因素涉及到它们的委托、设计、开发和最终部署。”

NIST认为,通过社会技术视角,组织可以通过“准确性、可解释性和可理解性、隐私性、可靠性、鲁棒性、安全性和安全弹性”来培养信任。

他们的建议之一是让组织实施或改进他们的测试、评估、确认和验证(TEVV)过程。在给定的数据集或训练过的模型中,应该有方法从数学上验证偏差。他们还建议在AI开发工作中创造更多来自不同领域和职位的参与,并拥有来自不同部门或组织外部的多个利益相关者。 “​human-in-the-loop”模型中,个人或集体不断纠正基本的 ML 输出,也是消除偏见的有效工具。

除了这些和修订后的报告之外,还有NIST的人工智能风险管理框架(AI RMF),这是一套由共识驱动的建议集,用于管理AI系统涉及的风险。一旦完成,它将涵盖人工智能技术和产品的透明度、设计和开发、治理和测试。人工智能RMF的初始评论期已经过去,但我们仍然有很多机会了解人工智能的风险和缓解措施。

猜你喜欢