这才是技术人员在算法上出现偏差的真正原因

人工智能2021-08-23 04:02:42
最佳答案机器有种族歧视吗?算法和人工智能是不是天生就有偏见?脸书、谷歌和推特有政治偏见吗?这些答案很复杂。然而,如果问题是科技行业在解决这

机器有种族歧视吗?算法和人工智能是不是天生就有偏见?脸书、谷歌和推特有政治偏见吗?这些答案很复杂。

这是技术人员在算法上存在偏差的真正原因

然而,如果问题是科技行业在解决这些偏见方面做得是否足够,那么直接的答案是“没有”。

警告人工智能和机器学习系统正在使用“坏数据”进行训练。经常被吹捧的解决方案是确保人们使用无偏见的数据来训练系统,这意味着人类需要避免自己的偏见。但这意味着科技公司正在培训他们的工程师和数据科学家,让他们了解认知偏差以及如何“应对”。有没有人停下来问那些喂机器的人,他们是否真的明白偏见的含义?

脸书(我的前雇主)、谷歌和推特等公司因各种有偏见的算法而多次受到攻击。为了回应这些合理的担忧,他们的领导人发誓要进行内部审计,并声称他们将与这一指数级威胁作斗争。大量研究和出版物表明,人类无法完全避免偏见。坚持不这样做是对一个非常现实的问题的理性、不诚实和懒惰的回应。

在脸书的六个月里,我被聘为公司商业诚信部全球选举诚信运营负责人,并参与了许多关于这一主题的讨论。我不知道有谁故意在他的作品中加入偏见。但是我没有找到真正懂得用任何真实有组织的方式抵制偏见的意义的人。

这是技术人员在算法上存在偏差的真正原因

在我担任中央情报局官员的十多年里,我经历了几个月的结构方法培训和例行再培训,以检查假设和理解认知偏差。这是情报人员开发的最重要的技能之一。分析师和操作员必须磨练他们检验假设的能力,在分析事件时仔细评估他们的偏见,并做令人不舒服且通常耗时的工作。他们还必须检查那些向收集者(资产、外国政府、媒体、反对者)提供信息的人的偏见。

传统上,这种训练是针对那些需要批判性分析思维的人。据我所知和经验,这种训练在技术领域并不多见。虽然高科技公司通常会接受强制性的“管理偏见”培训,以帮助解决多样性和包容性问题,但我在认知偏见和决策领域没有看到任何此类培训,尤其是与产品和流程的构建和保护相关的培训。

这是技术人员在算法上存在偏差的真正原因

从我的脸书同事提出的一些想法来看,我花了几年时间做的所有事情——结构化分析技术、权衡证据、不确定性和挑战性假设——都不是正常的实践,即使是在解决问题的时候。他们的产品在现实世界中的后果。在很大程度上,“快速行动”的文化与这些技术背道而驰,因为当面对重要决策时,它需要放慢速度。

免责声明:本文由用户上传,如有侵权请联系删除!