跳到主要内容

研究声称(高度性别歧视和种族主义)人工智能可以确定你的性取向

这里面有很多问题。

斯坦福大学最近发表了一项研究该研究声称,深度神经网络(即人工智能)在检测某人的性取向方面比人类更好。换句话说,这种人工智能的开发人员表示,他们能够创造出一种“同性恋雷达”,正如《卫报》所言.该软件的研究人员Michal Kosinski和Yilun Wang将3.5万张从各种约会网站上截取的个人资料照片加载到软件中,这些照片形成了机器学习的“种子”。最终,它能够正确区分男同性恋和直男,准确率分别为81%和74%。这与人类形成了鲜明对比,人类的正确率分别为61%和54%。

这种工具的存在引发了一场关于面部扫描的伦理问题的辩论,以及我们是否应该使用机器来回答这些问题。撇开隐私问题不谈,它使用了一些相当有问题的方法来确定性取向,比如非常异性恋和性别二元规范的标准,即“打扮风格”和“非典型性别”的特征。基本上,这意味着它要寻找在其他同性人群中不普遍的特征,比如看起来娘娘腔的男性或看起来阳刚的女性。说实话,在最好的情况下,它是一个非常简化的、极简的关于性别如何跨二元表现的观点,而不是对实际存在的性别和性取向光谱的反映。

据《卫报》报道,尤其令人不安的是,该软件没有针对这些人进行测试,甚至没有针对有色人种进行测试:“有色人种不包括在这项研究中,也没有考虑变性人或双性恋者。”

听着:这里的这句话解释了很多关于技术的问题。它的大部分内容都是围绕着男性的经历而创作的,而且往往是白人直男。对那些不认为自己是异性恋、白人、顺性或男性(或它们的任何组合)的人的考虑,往往被描绘成无关紧要、多余或完全没有必要的。它们是事后的想法,是边缘情况,是在发布后添加的补丁。由于没有占人口的很大一部分,这个“人工智能”是毫无用处的。

当然,这可能是第一次迭代,并将进行进一步的开发。但这正是我上面提到的问题:白人的经历经常被放在其他人之前,在很多情况下,他们被认为是唯一重要的经历。

以FaceApp为例,这是一款看似无害的新奇软件,它可以对你或你朋友的照片进行数字处理,让他们微笑、皱眉、变老,甚至看起来像“异性”。它最近上了头条,因为它公布了一个基本上是“扮演黑人过滤器,它会把人的照片变成黑色。它通过在给定的照片上应用一些非常刻板的种族主义特征来做到这一点。套装中还包括滤镜,可以让你看起来像亚洲人、印度人或白种人。这是一个考虑不周的主意,一开始就应该叫停。但事实并非如此,许多人都注意到了这一点,他们在Twitter上展示了这一切有多混乱。

我敢肯定,对于开发人员来说,这看起来至少是一个有趣的想法,因为他们投入了开发时间和周期来创建过滤器。这就是问题所在:没有人花时间去思考,“嘿,这有点混乱。”重要的是创造事物,而不需要考虑大量人群的体验。难以置信,不是吗?

我希望我能说这是科技界种族主义的一个独立例子,但正如你我以及在座的所有人所知,这是一个在整个行业普遍存在的问题。这个行业对大众的短视已经被写过很多次了,作者都是比我更优秀的作家,所以我在这里就不多说了。我只想说,这是个大问题随着我们越来越深入地探索这个充斥着技术的信息时代,解决这个问题非常重要。

作为艾米·兰格最近为我们写了一篇文章在美国,客观机器人或人工智能的想法是一个神话。

一篇论文今年早些时候出版于科学探索了人工智能系统如何学习语言和语义。在这篇论文中,研究人员解释说,当人工智能系统通过输入文本获得语言时,这些系统也获得了“我们历史偏见的印记”。合著者乔安娜·布莱森解释“很多人说这表明人工智能是有偏见的。不。这表明我们存在偏见,而人工智能正在学习这一点。”就像鹦鹉会重复听到的脏话一样,我们创造的系统也会重复我们对自己和他人的评价。

算法、机器人、人工智能和新兴智能、深度学习神经网络——没有一个能幸免于定义我们自己经历的潜在偏见和偏见。想想看:让一个人承认他们的特权或承认他们所做的事情可能是种族主义或性别歧视有多难?如果这个人创造了一些所谓的“他们的形象”——或者其他什么东西,这种观点会突然消失吗一个,就像抚养孩子一样?(剧透:它没有。)

然而,兰格用一种乐观(老实说,令人耳目一新)的观点看待这些启示门户网站的GLaDOS和Chell就是这种互动的例子。她写道:

当我们被越来越自动化的系统包围时,我们应该好好研究一下,我们几十年来的人类偏见是如何被编程到我们的家庭、办公室和口袋里的设备中的。如果没有这种检查,我们会发现我们头脑中最糟糕的声音——当然,这些声音是由整个社会“编程”到我们身上的——将会进入我们的创作中。我们可能会加重厌女症,而不是纠正它。

但是,不要绝望:这最终是充满希望的。就像Chell需要面对为了摧毁她而追捕她的人工智能一样,我们也应该认识到机器人不是什么“他者”。我们应该盯着它们,直到在它们镀铬的表面上看到自己的倒影。

如果你的“创新技术”不能解释被边缘化的人的经历,那么它既不是创新,也不是技术。它只是另一个场所,人们通过它暴露在更多的偏见、偏见和进一步的边缘化中,所有这些价值观从根本上都是与技术应该代表的价值观相对立的。世界几乎不需要您的排他性软件,尽管您可能对此抱有“良好的意图”。我们完全沉浸在你的善意之中。

(图片:Flickr /汞回来的

想知道更多这样的故事吗?成为订阅者并支持该网站

- - - - - -玛丽苏有严格的评论政策禁止,但不限于,对任何人、仇恨言论和喷子-

有我们应该知道的小窍门吗?(电子邮件保护)

了下:

追随玛丽苏:

Jessica Lachenal是一个不怎么谈论自己的作家,所以她不太确定传记信息面板应该如何工作。但不管怎样我们还是要开始了。她是the Mary Sue的周末编辑,the Bold Italic (thebolditalic.com)的特约撰稿人,以及Spinning Platters (spinningplatters.com)的特约撰稿人。她还在模型视图文化和前沿洛杉矶杂志,并在auto跨。她希望这件事让你和她一样尴尬。