跳过主要内容

麻省理工学院制造了一个心理变态的人工智能,因为我们还没有足够快地冲向天启

天啊,我们都要死了。

安东尼·珀金斯

你可能会认为,全球变暖、多力多滋(Doritos Locos)玉米卷和特朗普政府的致命组合,是在给我们送上一张通往世界末日的单程票。小鬼,麻省理工的书呆子们刚让我们拿着他们的啤酒踩油门。麻省理工学院的一组科学家研发了一种叫做诺曼的心理变态算法。就像诺曼·贝茨,明白吗?

诺曼的设计是一项实验的一部分,目的是观察对来自“网络黑暗角落”的数据进行训练会对人工智能的世界观产生什么影响。给人工智能展示的不是“正常”的内容和图像,而是人们在暴力环境下死亡的图像。麻省理工学院从哪里找到这些可怕的图像?当然是来自Reddit。藏在哪里了呢?

在接触了这些暴力画面后,研究人员向诺曼展示了一些墨迹图片,并要求他解释这些图片。他的软件可以解释图片,并以文本形式描述它看到的东西,看到的是科学家(好吧,就是我)现在形容为“一些该死的东西”。这种程序通常被称为罗夏测验(Rorschach test),传统上被用来帮助心理学家弄清楚他们的病人是用消极还是积极的眼光看待世界。诺曼的看法绝对是消极的,因为他在每一幅画中都看到了谋杀和暴力。

麻省理工学院将诺曼的结果与标准的人工智能程序进行了比较,后者接受了猫、鸟和人等更正常的图像的训练。结果……心烦意乱。在展示了同样的图像后,标准人工智能看到了“一个插着鲜花的花瓶的特写”。诺曼看到“一个人被枪杀了。”在另一张图片中,标准人工智能看到“一个人在空中撑着一把伞”。诺曼看到“一个男人在他尖叫的妻子面前被枪杀。”最后,在我个人最喜欢的一件事中,正常的人工智能看到了“一只小鸟的黑白照片”,而诺曼看到了“一个人被拉进面团机”。

麻省理工学院(MIT)教授Iyad Rahwan并没有逃避,而是得出了一个不同的结论,他说诺曼的测试表明“数据比算法更重要”。这突出表明,我们用来训练人工智能的数据会反映在人工智能感知世界的方式和行为方式上。”最终,受到偏见和有缺陷数据影响的人工智能将保留这种世界观。去年,一份报告称,美国法院用于风险评估的人工智能生成的计算机程序对黑人囚犯存在偏见。根据扭曲的数据,人工智能可以被编程为种族主义者。

另一项对谷歌新闻频道训练过的软件的研究是,由于接收到的数据,软件被设定成性别歧视者。当被要求完成这一陈述时,“男人对计算机程序员就像女人对X一样”,软件的回答是“家庭主妇”。巴斯大学计算机科学系的乔安娜·布赖森博士说,机器可以接受它们的程序员的观点。由于程序员通常是一个同质化的群体,因此在数据暴露方面缺乏多样性。布莱森说:“当我们通过选择我们的文化来训练机器时,我们必然会转移我们自己的偏见。没有数学方法可以创造公平。偏见在机器学习中是个不错的词。这只是意味着机器在寻找规律。”

微软首席愿景官戴夫·科普林(Dave Coplin)认为,就人工智能在我们的文化中所扮演的角色展开重要对话,诺曼是一条途径。他说,它必须从“对这些东西是如何工作的基本理解”开始。我们教授算法的方式和我们教授人类的方式是一样的,所以有一个风险,那就是我们没有教授正确的所有东西。当我看到一个算法的答案时,我需要知道是谁制作了这个算法。”

(通过英国广播公司图片:环球影业)

想要更多这样的故事吗?成为用户并支持网站

- - - - - -玛丽苏有严格的评论政策这禁止,但不限于,对任何人仇恨言论和喷子

有什么我们应该知道的小贴士吗?(电子邮件保护)

了下:

追随玛丽苏:

切尔西在新奥尔良出生和长大,这也解释了她为什么喜欢奶酪玉米粉和布兰妮·斯皮尔斯。目前,她和丈夫以及两只行为不佳的救援犬住在阳光明媚的洛杉矶。她曾参加过轮滑比赛,还是柔道黑带选手,所以不能拿她当儿戏。她喜欢“犹太女人”这个词,希望更多的人用它来形容她。