当前位置:首页 > 最新资讯 > 行业资讯

人工智能在“偏见”的十字路口徘徊

随着企业将更多机器学习和人工智能模型投入生产,人们越来越意识到自己的系统存在偏见。这种偏见不仅可能导致AI系统做出更糟糕的决定,还可能使运行AI系统的组织陷入法律危机。偏见可以渗透到应用于各种行业的AI系统中。

哈佛大学和埃森哲公司在去年发布的一份报告中展示了算法偏见如何潜入人力资源部门的招聘流程。在2021年的联合报告《隐藏的员工:未开发的人才》中,不当的职位描述和严重依赖算法进行招聘广告发布和简历评估的自动化招聘系统,是怎样阻止合格的个人找到工作。

偏见导致了两个最坏情况。尽管企业在技术上花费了大量金钱,系统仍固守着以往错误的做法,而且效率更高,结果更差。

警务是另一个容易因算法偏见而产生意外后果的领域。某些警务预测产品被证明对特定社区的犯罪预测和种族之间存在显著的相关性,这种流行的预测性警务产品可能对少数族裔存在偏见。研究发现在美国,居住在一个地区的白人居民越少,而居住在那里的黑人和拉丁裔居民越多,该产品预测发生犯罪的可能性就越大。同样的差距也存在于富裕和贫困社区之间。

DataRobot在一项针对美国和英国各行业350家机构的调查中,超过一半的机构表示,他们非常担心人工智能偏见可能会伤害他们的客户和自己。

该调查显示,54%的美国受访者表示,对其组织中人工智能偏见的潜在危害感到“非常担忧”或“深感担忧”。而在2019年进行的一项类似研究中持相同观点的人占42%。调查显示,他们的英国同事对人工智能的偏见怀疑态度更深,64%的人表示他们也有这种看法。

而调查中超过三分之一(36%)的受访者说,他们的组织已经因AI偏见受到影响,收入损失和失去客户是最常见的后果。

消费者信任的丧失被认为是人工智能偏见的第一大潜在风险,56%的受访者提到了这一风险因素,其次是品牌声誉受损、监管审查增加、员工信任的丧失、与个人道德不符、诉讼和股票价值的下降。

虽然有四分之三的受访机构称计划对AI偏见进行检测,约四分之一的组织说他们“非常有信心”有能力来检测AI偏见。

受访者列举了消除偏见的几个具体挑战,包括:难以理解人工智能模型为什么会做出决定;理解输入值和模型决策之间的模式;对算法缺乏信任;训练数据的清晰性;保持AI模型的动态更新;教育利益相关者识别人工智能偏见;以及也不清楚什么是偏见。

那么,如何解决人工智能中的偏见问题呢?首先,81%的受访者表示,他们认为“政府监管将有助于定义和防止人工智能偏见。”该调查称,在没有政府监管的情况下,约三分之一的人担心人工智能“会伤害用户”。但同时45%的受访者表示,他们担心政府监管会增加成本,使采用人工智能变得更加困难。只有约23%的人表示,他们不担心政府对人工智能的监管。

总而言之,在人工智能的偏见问题上,似乎正处于十字路口。随着采用人工智能日益被视为现代企业的必备条件,采用这项技术的压力相当大。企业越来越担心人工智能带来的意外后果,尤其是在道德方面。

人工智能领域的从业者需要了解并理解人工智能和道德的重要性和影响。消除偏见的核心挑战是理解为什么算法会首先做出这样的决定。在应对人工智能偏见和随之而来的复杂问题时,需要规则和条例来指导。如今,国际组织和产业巨头已经开始研究人工智能原则和法规,但要确保模型公平、可信和可解释,还有更多工作要做。

猜你喜欢