您的位置首页 >企业 >

2021年12月30日最新消息:脸书CTO表示 招聘事项对于缓解AI偏见非常重要 但缺乏AI研究多样性的统计数据

导读 脸书首席技术官迈克斯科洛普夫认为,招聘是AI多样性的重要组成部分,可以防止团队在为用户打造产品时存在偏见,但他无法告诉你在脸书AI

脸书首席技术官迈克斯科洛普夫认为,招聘是AI多样性的重要组成部分,可以防止团队在为用户打造产品时存在偏见,但他无法告诉你在脸书AI Research工作的黑人数量。脸书研究由Yann LeCun于2013年创立,在硅谷、纽约州和巴黎设有分支机构。FAIR拥有100多名员工,已成为全球最大、最具影响力的人工智能研究机构之一。

一位脸书发言人后来表示,脸书报告了过去六年的员工多样性,但没有总结各团队的多样性统计数据。VentureBeat在2019年7月询问了脸书关于脸书人工智能研究公司的黑人员工数量,但没有得到回应。2019年11月,VentureBeat再次向谷歌和脸书询问多样性统计数据,两家公司均告知不提供AI研究部门的多样性统计数据。

Snap的首席执行官埃文埃文斯皮格尔在上周五的一次内部会议上发表了一个单独但可能相关的评论,他并不打算公布多样性统计数据,因为这些数据只会强化人们的观点,即硅谷对多样性的关注度低于多样性。报道发表后,Snap发言人联系了VentureBeat,称该公司计划在“不久的将来”发布自己版本的多样性报告,但拒绝透露具体时间框架。

施罗德说:“听着,我认为代表制非常重要.我想说,我们非常关注这些问题,这就是为什么我们一直非常关注提高公司的整体多元化。”“我也认为,真正解决这些问题的办法,比如保证你有多元化的数据集,其实就是全过程,并且知道整个公司对它们的形式化理解,因此,有统计的方法来判断数据集在企业中是否具有代表性。你关心的方式。”

03010 (M算法)的合著者Mutale Nkonde在2019年进行的分析发现,脸书AI Research没有黑人员工。《算法问责法》于2019年4月提出,将要求企业对AI的安全性、安全性和偏见性进行评估。

对此,Schroepfer表示,由于训练数据不能代表用户,偏见通常出现在AI中。然而,华盛顿的政策制定者、人工智能伦理的研究人员和许多其他人都强调,雇佣多元化的团队来让更多的人关注人工智能是至关重要的。

尽管脸书和谷歌等公司发布了多年的公开多元化报告,而且Black的创始人历来没有为初创企业提供资金,但许多批评者和Black Tech社区的成员仍然对科技行业的进步感到沮丧。公用事业创始人蒂夫尼阿什丽贝尔创造了“雇佣”。发送电线。“简单回答风险投资家和科技巨头究竟如何发挥作用的问题。

但施罗德普费弗为脸书在多样性方面的记录辩护,强调该公司在过去两年里努力在人工智能和负责任的创新实验室中建立协会。在2019年F8的主题演讲中,他强调了脸书越来越多地将AI用于内容审计,以及负责任的创新团队和产品团队的工作,涉及选举完整性、安全性和算法公平性等主题。Schroepfer说,算法公平团队的优先事项之一是,去年,一名黑人员工“亲自假设”确保Portal相机的姿势估计AI对浅肤色和深肤色的人同样有效。

“我认为构建人们可以使用的默认工具很重要,因此默认具有代表性。显然,正如您所知,团队越有代表性,我们就越能确保用户的所有观点都融入到我们构建的产品中,”他说。

VentureBeat向脸书发言人询问了更多关于算法公平性团队活动的详细信息,以及公司内部是否有任何审核脸书在生产中使用的算法的具体计划,但当这篇报道发表时,没有收到任何回应。

根据AI研究院现在的一份报告,像脸书和谷歌这样的主要高科技公司去年宣布在计算机科学的学术教学中发现了AI。其中80%以上是男性,女性仅占脸书人工智能研究人员的15%,占谷歌人工智能研究人员的10%。该报告坚持认为,不齐心协力创建多元化团队的公司可能会延续目前存在的结构性不平等。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!