人脸识别技术在各行各业的巨大潜力几乎是无法想象的。然而,在实现其复杂的应用程序之前,需要解决其功能中常见的某些错误和一些道德方面的考虑。
一个准确的人脸识别系统使用生物识别技术从照片或视频中映射面部特征。它将信息与已知面孔的数据库进行比较以找到匹配项。人脸识别可以帮助验证一个人的身份,但它也会引发隐私问题。
几十年前,我们无法预测面部识别会在未来成为我们生活中近乎不可或缺的一部分。从解锁智能手机到进行在线或线下交易,这项技术已经深深扎根于我们今天的日常生活中。
人脸识别系统是人工智能的计算机视觉和机器学习组件的应用,它的工作方式如下:经过训练的算法可以确定一个人面部的各种不同细节,比如他们眼睛之间的像素数或曲率,以及其他经过逻辑解释的细节,从而在系统中重建人脸。然后将该重新创建与存储,在系统数据库中的大量面孔进行比较。如如果算法检测到与数据库中存在的人脸相匹配,那么系统就会“识别”它,并执行用户的任务。
除了在几秒内完成整个过程外,今天的人脸识别系统即使在光线、图像分辨率和视角不佳的情况下也能胜任工作。与其他人工智能技术一样,人脸识别系统在用于各种目的时需要遵循一些道德原则。
这些规定包括:
1、人脸识别中的公正性
首先,面部识别设备的开发必须完全防止,或至少极大限度地减少基于种族、性别、面部特征、畸形或其他方面对任何人或群体的偏见。现在,有充分的证据表明,面部识别系统在其操作中不可能100%公平。因此,构建支持该技术的系统的公司通常要花费数百个小时来消除系统中发现的所有偏见痕迹。
像微软这样的知名企业通常会从尽可能多的种族社区雇佣合格的专家。在他们的面部识别系统的研究、开发、测试和设计阶段,多样性使他们能够创建大量的数据集来训练AI数据模型。虽然庞大的数据集减少了偏差,但多样性也是象征性的。选择来自世界各地的个人有助于反映现实世界中发现的多样性。
为了消除面部识别系统的偏见,企业必须付出额外的努力。为了实现这一点,用于机器学习和标记的数据集必须多样化。重要的是,一个公平的面部识别系统的输出质量将非常高,因为它将在世界任何地方无缝工作,没有任何偏见的元素。
为了确保面部识别系统的公平性,开发人员还可以在beta测试阶段让终端客户参与进来。在真实场景中测试这样一个系统的能力只会提高其功能的质量。
2、关于AI内部运作的开放性
在工作场所和网络安全系统中使用面部识别系统的企业,需要了解机器学习信息存储在哪里的所有详细信息。此类企业在日常操作中实施技术之前,需要了解技术的局限性和能力。提供人工智能技术的公司必须对客户完全透明地了解这些细节。此外,服务提供商还必须确保,客户可以在任何地点使用他们的面部识别系统。系统中的任何更新必须在得到客户的有效批准后才能进行。
3、企业责任问题
综上所述,人脸识别系统部署在多个领域。制造此类系统的企业必须对其负责,特别是在技术可能直接影响任何人或团体执法、监视的情况下。此类系统中的责任制意味着包含用例,以防止身体或基于健康的伤害、财务挪用或其他可能由系统引起的问题。为了将控制元素引入过程中,一个合格的个人负责企业中的系统,以做出衡量的和合乎逻辑的决策。除此之外,将面部识别系统纳入日常运营的企业必须立即解决客户对该技术的不满情绪。
4、监测前的同意和通知
在正常情况下,未经个人、团体同意,面部识别系统不得用于窥探个人、团体或其他行为。某些机构,如欧盟,有一套标准化的法律,以防止未经授权的企业在理事机构的管辖范围内监视个人。拥有此类系统的企业必须遵守美国所有的数据保护和隐私法律。
5、合法监控以避免侵犯人权
除非获得国家政府或决定性管理机构出于与国家安全,或其他重要情况相关的目的而授权,否则企业不能使用面部识别系统来监控任何人或团体。基本上,这项技术被严格禁止用于侵犯受害者的人权和自由。
尽管被编程为无一例外地遵循这些规定,但面部识别系统可能由于操作错误而导致问题。
与该技术相关的一些主要问题是:
1、购买时验证错误
如上所述,面部识别系统被纳入数字支付应用程序,以便用户可以使用该技术验证交易。由于这种技术的存在,很有可能进行面部身份盗窃和借记卡欺诈等犯罪活动。顾客选择面部识别系统是因为它为用户提供了极大的便利。尽管人脸识别系统中存在安全协议,但人脸复制可能会导致资金挪用。
2、执法应用中的不准确性
面部识别系统被用于在抓捕罪犯之前识别公开的罪犯。虽然该技术作为一个概念在执法中无疑是有用的,但在其工作中存在一些明显的问题。犯罪分子可以通过多种方式滥用这项技术。例如,有偏见的人工智能概念为执法人员提供了不准确的结果,因为系统有时无法区分有色人种。一般来说,这类系统是用包含白人男性图像的数据集训练。因此,在识别来自其他种族的人时,该系统的工作方式是错误的。
有几个例子,企业或公共机构被指控使用先进的面部识别系统非法监视平民。通过持续监控个人收集的视频数据可以用于多种不正当的目的。面部识别系统较大的缺点之一是它提供的输出过于泛化。
例如,如果一个人被怀疑犯了重罪,他们的照片会被拍摄下来,并与几个罪犯的照片一起运行,以检查这个人是否有任何犯罪记录。然而,将这些数据叠加在一起,意味着面部识别数据库将保留该男子和经验丰富的重罪犯的照片。所以,尽管个人清白,他或她的隐私还是受到了侵犯。其次,尽管从各方面来看,这个人都是无辜的,但可能会被认为是一个坏人。
我们可以看到,与面部识别技术相关的主要问题和错误源于技术的缺乏进步,数据集的缺乏多样性,以及企业对系统的低效处理。在我看来,AI及其应用在现实需求中的应用范围是无限的,而人脸识别技术的风险,通常发生在当该技术的工作方式与实际需求不同时。
在沃卡惠看来,随着未来技术的进一步发展,与技术相关的问题将会得到解决。人工智能算法中与偏见相关的问题终将会解决。然而,为了让该技术在不违反任何道德规范的情况下完美运行,企业必须对此类系统保持严格的治理水平。通过更大程度的治理,人脸识别系统的错误可以在未来得到解决。因此,必须对此类系统的研究、开发和设计进行改进,以实现积极的解决方案。