欢迎访问 武汉桑拿导航网!

Google以5美元价格购买脸使用权:尝试使面部识别

作者:admin日期:

分类:123/都市资讯/



Google在10月15日发布了其最新手机:Pixel 4。几个月来一直对此手机进行炒作。它的功能是技术中最差的秘密。因此,谷歌在发布会上所说的话有点陈旧。但是,其中一项特殊功能已引起广泛关注:使用脸部来解锁手机。面部识别技术并不是新事物;自2017年以来,iPhone便能够做到这一点。但是有关Pixel 4的宣传视频表明,该公司正试图解决问题:众所周知,面部识别技术不利于发现黑皮肤的人。该技术通常会误识别它们,或者根本无法检测到它们。

明确宣传这一点很重要:Google基本上是说:“我们看到你了,这部手机是为您量身定做的!”但随后,《纽约每日新闻》准确报道了Google如何使其技术更具包容性。与她的同事Nancy Dillion一起打破了这个故事的Ginger Adams Otis与Reset主持人Arielle Duhaime-Ross一起分享了他们学到的知识:我们发现,在尝试创建生物特征面部识别功能(允许您的脸部解锁手机)时,他们需要建立一个大型的脸部数据库,以便他们(这就是他们的话)“训练机器”,以便该技术可以识别存在的所有不同种类的人。

为此,他们派出团队来收集面部扫描,而收集这些图像的人(即雇工)并没有事先知道他们要收集数据的内容,人们需要做什么,做什么?他们表示同意,在某些情况下,他们针对肤色较深的特定人群。这并不是研究人员第一次以高贵的名义对有色人种采取可疑的措施。鲁哈·本杰明(Ruha Benjamin)在普林斯顿大学(Princeton University)学习种族,科学与技术的交叉学科。在本集的第二部分中,她解释了我们在面部识别技术中经常看到的种族偏见,以及Google承包商的数据收集实践如何呼应科学家利用脆弱的彩色社区的悠久历史。

在整个国家的整个历史中,种族化群体都是有针对性的,并被包括在有害的实验中。无论是奴隶制,吉姆·克劳还是大规模监禁,科学家和医生都追随最脆弱的人群,以磨练各种技术。聆听有关Reset的整个讨论。在下面,我们还分享了他们谈话的简短编辑的抄本。

艾丽尔·杜海姆·罗斯姜亚当斯·奥蒂斯(Ginger Adams Otis),您是《纽约每日新闻》的记者,而您与同事南希·狄龙(Nancy Dillon)则在两周前就讲述了一个有关Google为改善其Pixel手机所做的工作的故事。你发现了什么?

生姜亚当斯·奥蒂斯我们发现,在尝试创建生物特征面部识别功能时,该功能将允许您的脸部解锁手机,因此他们需要建立一个大的脸部数据库,以便他们(这就是他们的话)可以“训练机器”,从而使该技术识别所有不同的人。

为此,他们派出团队来收集面部扫描,而收集这些图像的人(即雇用员工)并没有事先知道他们正在收集数据的内容,也不清楚他们需要做什么表示同意,在某些情况下,他们针对肤色较深的特定人群。

艾丽尔·杜海姆·罗斯他们如何收集有关人员的信息?

生姜亚当斯·奥蒂斯好吧,谷歌已经承认他们已经对人们做了自愿的请求,基本上是在大街上走到他们面前说:“嘿,你想让谷歌扫描你的脸吗?”然后他们会提供五美元的礼物。卡,如果您知道是否需要。但我想,在某些情况下,他们没有得到他们想要的多样性,因此他们不得不扩大询问方式。

艾丽尔·杜海姆·罗斯您知道Google一直在街上扫描人们的面孔多久了?

生姜亚当斯·奥蒂斯据我们所知,他们可能是在一月份开始这个项目的。但是我认为他们已经做了早期的迭代,许多科技公司也这样做。我的意思是,他们必须得面子。

艾丽尔·杜海姆·罗斯只是一句话,“他们必须丢脸”:这是我最近听到的反乌托邦式的事情之一。因此,引导我了解从人们那里获取此类数据的理想方案是什么:有人在街上走近您,然后呢?

生姜亚当斯·奥蒂斯我会考虑最佳做法,而这只是与一群不同的人交谈的结果,那就是一家私人公司希望从您那里购买东西或使用您的东西,实质上是使您商品化,所以应该先行他们到底在做什么,并确保您已完全知情同意。在您同意之前,这将需要完整的解释和时间来阅读同意书。实际上,我们看到了Google同意书的迭代版,他们在将其简化为一些紧要点方面做得很好。因此,可以让人们完全了解发生了什么。

艾丽尔·杜海姆·罗斯您知道他们用于这些面部扫描的设备是什么吗?您能描述一下它是如何工作的吗?

生姜亚当斯·奥蒂斯我们实际上是自己看到的。一个小组在加利福尼亚收集数据,人们会选择这个小工具,您知道它不是平板电脑大小,而是比小iPhone大。它上面有一个圆,它会说使您的脸居中,并用鼻子跟随该点。而且您知道他们会从不同角度上下旋转脸部。而此人必须握住它,因为您需要完整的3D扫描。

艾丽尔·杜海姆·罗斯从您的报告中我们知道Google公司是针对有色人种的,他们特别想从脸上获取数据。Google表示正在做什么,为什么它需要这种数据集?

生姜亚当斯·奥蒂斯Google想要各种肤色,面部和特征,所以我并不是不认为专门针对特定人群是他们的首选,但是他们对这种技术的众所周知的是它在可靠性上不那么可靠肤色较深,因为没有足够的练习方法。谷歌对我们说,我们真的需要训练机器。

艾丽尔·杜海姆·罗斯因此,谷歌表示,实际上是在这样做,以使其产品更具包容性。在某些方面,这听起来对我来说是一个崇高的目标。那么,哪里出了问题?

生姜亚当斯·奥蒂斯好吧,他们雇用了一家公司,一家雇用公司来引进承包商。而且,就扫描的面部数量而言,它们还可以打一些标记。他们给了他们一些指导,让他们注册。让人们说是。跳过同意书,告诉他们这是一场比赛。告诉他们这就像是一种新型的Snapchat或小型游戏,您知道自己并不会撒谎,但也不会陷入细节,因为您知道我们需要保持这种状态。

艾丽尔·杜海姆·罗斯有点像人们不知道他们要签约的声音。

生姜亚当斯·奥蒂斯有些人可能没有。团队离开后,我们在加利福尼亚州看到的那些与我们交谈的人会问他们:您知道这是给Google的,他们正在扫描您的脸吗?他们就像,“不,我们没有听到Google的声音。我们认为这只是一场比赛。”当然,我们听到并报道的故事之一是,有一个团队专门派往亚特兰大寻找有色无家可归的人,因为他们不太可能担心为什么要问自己的脸。

艾丽尔·杜海姆·罗斯哇。

生姜亚当斯·奥蒂斯亚特兰大市非常沮丧。市政律师实际上写信给了Google。我曾与亚特兰大市市长谈过,他们的感觉是,捕食弱势群体并不容易,而且有些无家可归的人内部存在同意问题。

艾丽尔·杜海姆·罗斯您提到整个项目,至少您要报告的部分是通过第三方公司完成的,这些员工访问Google设施是他们与Google经理打交道。有什么证据将其中一些做法直接与Google联系起来?

生姜亚当斯·奥蒂斯我们从多个来源了解到,虽然这些人是通过Randstad公司与这些雇用工人签约的,但如果不是全部的话,他们大多数都是在Google各个总部工作的。他们使用了Google设施的Google自助餐厅。他们上了Google巴士。他们得到了所有有趣的Google产品。而且,我们看到了一些文档,这些文档向我们提供了涉及此关键部分的特定Google经理的信息。

艾丽尔·杜海姆·罗斯因此,您发布了这样一个故事,大声疾呼Google对其承包商的行为。Google对这一切有何反应?

生姜亚当斯·奥蒂斯因此,他们承认由于技术上的已知缺陷,他们正在寻找肤色较深的人。而且,正如您所说,我们的目标是针对某种方法制造出更好的产品-我们称之为“可疑战术”指控。谷歌说:我们正在暂停,我们正在调查。我们为透明度设置了溢价,我们将检查所有这些。

艾丽尔·杜海姆·罗斯但是电话还是可以继续启动,对吗?因此,他们大概仍从他们收集的数据中受益吗?

生姜亚当斯·奥蒂斯当然。在我们看到的同意书中,该同意书又是一份不断发展的文档的副本,同意书是针对该项目的。但是,一旦他们构建了该技术并使用您的面孔,您的数据就可以构建该技术落后的产品,而该产品不会在同意书中定义。

艾丽尔·杜海姆·罗斯您对这个故事有什么特别的了解?当您退后一步时,您希望人们从您的报告中获得什么?

生姜亚当斯·奥蒂斯好吧,我认为每个人(包括我自己)都应该真正重点关注一些关键问题,因为我每天都不是技术记者。我是工人,人民记者。我认为,作为人们,我们必须开始对我们在大技术中的角色进行更多的批判性思考,因为大技术需要我们提供的是我们的数据。在这种情况下,它实际上是我们身体的一部分。我们要出售吗?如果我们要出售产品,那么您是在协商价格还是在行,“哦,您要我玩一款很棒的游戏吗?好吧,我会做的。”

艾丽尔·杜海姆·罗斯您如何看待五美元的礼品卡?这对您来说足够了吗?

生姜亚当斯·奥蒂斯这就提出了一个问题:如果还不够,我们的价格是多少?这是一个令人恐惧的问题,但是我认为这几乎是使它变得无害的聪明方法。

艾丽尔·杜海姆·罗斯是的,如果您要给我一百美元,我可能会开始问更多问题。

生姜亚当斯·奥蒂斯对。

艾丽尔·杜海姆·罗斯但是五美元似乎有些放松,也有些寒意。

生姜亚当斯·奥蒂斯对。是的 要知道,星巴克。好吧,太好了 我要高。

艾丽尔·杜海姆·罗斯鲁哈·本杰明(Ruha Benjamin),您在普林斯顿大学学习种族,科学和技术的交汇点。您如何解释我们在面部识别技术中经常看到的种族偏见?我们是怎么来到这里的?

鲁哈·本杰明(Ruha Benjamin)在过去几年中,我们看到的部分例子是太多的例子,这些例子揭示了人类必须教计算机如何进行计算。因此,计算系统的输入在很大程度上决定了输出。举例来说,如果一家公司在过去50年的招聘过程中歧视了女性,那么该公司的员工人数绝大多数是男性,这就是正在为寻找新员工的招聘系统培训的数据,根据这个先例,招聘系统将假定该公司对女性申请人不感兴趣。因此历史可以帮助预测这种情况下的未来。

艾丽尔·杜海姆·罗斯当您在《纽约每日新闻》上阅读这些故事时,您的直觉是什么?

鲁哈·本杰明(Ruha Benjamin)“哦,我们再来一次。”​​因此,种族歧视的群体已成为目标,并被纳入整个国家历史的有害实验中。无论是奴隶制还是吉姆·克劳还是大规模监禁。科学家和医生追求最脆弱的人群,以磨练各种技术。

在奴隶制下,我们有J. Marion Sims,人们称其为妇科之父,他对被奴役的妇女进行了试验,以磨练我们今天仍然使用的外科手术技术,其中一些妇女在没有麻醉的情况下进行了多达30次手术。一些最终死于由实验引起的感染。

在吉姆·克劳(Jim Crow)的领导下,我们让美国公共卫生服务局(US Public Health Service)对患有梅毒的黑人农民进行了试验,然后在知道该疗法后拒绝他们接受治疗,以便继续观察[他们。这就是很多人都知道的塔斯克吉实验。但这是美国公共卫生服务赞助的实验。

然后直到现在,有一本名​​为《 Acres of Skin》的好书着眼于费城发生的实验,其中皮肤科医生看到了所有这些囚犯,并为能够在实验中使用他所谓的“ Acres of Skin”而感到兴奋。因此,在所有这些方面,它都在照顾弱势群体。所有这些都是为了公共利益而设计的。对。因此,没有一个人从事这种把自己当作险恶人物的想法。他们认为自己正在发展每个人最终都将从中受益的事物。

因此,以这种方式,Google的实验是建立在悠久的传统基础上的,相比之下似乎并不那么严格,但它开创了先例,当我们追捕那些本已脆弱的人和可能的人时,我们对此视而不见即使这些技术开发得很好,也会受到伤害。我认为Google停止这项研究是一件好事,而且人们普遍质疑我们是否真的希望保留这一先例。

艾丽尔·杜海姆·罗斯因此,有点想在这里解决问题,我可以看到有人在阅读Google的这个故事并说:“嘿,这家公司实际上是在试图解决种族偏见问题。他们正试图在数据库中包含更多的黑脸。”这是合理的选择吗?

鲁哈·本杰明(Ruha Benjamin)仅仅希望创造一种具有包容性的产品并不能证明为此而进行强制性过程。

我们必须关心这种方法,部分原因是由于我描述的历史。而且,由于那些正在参与使Google产品更具包容性的特定过程的人,最终将使Google受益。他们的底线将是这种利益,而这些人群可能不会从他们的参与中直接受益。

我们必须记住,这是一家试图销售商品和产品的公司,这种包容性言论常常被用来掩盖真正危险的事物,谁将受益,谁会因面部识别而受到伤害软件更有效。

事实是,这些超出Google特定产品的面部识别系统可能会被警察,ICE或其他机构加入监视项目。具有讽刺意味的是,正是针对这一目标的人口。这些监视做法可能会将皮肤较深的人,无家可归的人等作为目标。因此,该过程本来可以符合道德标准,但是结果仍然是我们应该质疑的事情。
本文标签:

相关阅读

  • 年轻人以非处方药以惊人的速度中毒

  • admin都市资讯
  • 自我中毒的情况急剧增加,尤其是在年轻女性中。有帮助的方法。5月,《儿科学》杂志发表了一些令人震惊的数据:在过去的十年中,试图用毒药自杀的青少年人数急剧增加。这一趋势
  • 渣男渣女们的情感生活过得还好吗?

  • admin都市资讯
  • 以前在武汉夜网有一对男女同事后来因为工作关系分隔异地,突然有一天男的想给女的一个惊喜,然后就马不停蹄坐上高铁,奔赴女的城市,到达目的地之后,男的为了给女的创造一个
关键词不能为空
极力推荐

聚合标签

关于我们 联系我们