科技资讯:新的研究表明群体人工智能比个体做出更多的伦理决策

导读新时代高科技不计其数越来越发达,小伙伴们看过不少科技新闻吧,在我们生活中应该也用到很多这些高科技东西,有哪些小伙伴值的关注的呢,今

新时代高科技不计其数越来越发达,小伙伴们看过不少科技新闻吧,在我们生活中应该也用到很多这些高科技东西,有哪些小伙伴值的关注的呢,今天就跟大家分享一篇有关科技方面知识,希望大家会喜欢。

目前关于人工智能的讨论大多集中在伦理影响上——人工智能是否最终会“智胜”我们,或者伤害我们;我们如何确保人工智能符合我们的最佳利益——值得考虑一种让人类参与其中的人工智能新方法:群体智能。

联合国大学是一个由全体一致的A.I运行的软件平台,它把人们集合在一起,在线得出各种实时的决定和预测,从“疯狂三月”的获胜者到肯塔基赛马会上的四匹最优秀的马。事实证明,该系统在给出准确答案方面非常有效。事实上,它在各种竞赛中都超过了专家——例如,在2015年的奥斯卡预测中,《虫群》的准确率超过了70%——应该指出的是,《纽约时报》的评论家有55%的正确率。

但是,除了准确性之外,使用蜂群还有另一个好处:根据新的研究,它可以做出更多的道德决定。

这可能有悖常理。“作为个体,人们通常会做出符合社会整体利益的道德决定,”一致人工智能公司(ai)首席执行官路易斯·罗森伯格(Louis Rosenberg)说“但在集体中,我们经常做出糟糕的决定,导致不平等、污染和武装冲突等问题。这就是为什么它如此有趣,通过形成群体智能而不是进行标准的投票,群体似乎能够克服这个人类的基本困境,做出更无私和更道德的决定。”

上周在纽约大学举行的2016年集体智慧大会上公布的这项新研究使用了联合国大学的一系列测试。参与者是随机挑选的,他们的报酬是1美元。这些测试是基于“公地悲剧”(TOC)——这是一个经典的经济问题,它表明人们会试图从馅饼中分得最大的一块,而这最终会对那些拥有较少的人造成伤害。

在第一轮实验中,18名受试者在两种情况下做决定:通过调查作为个体,然后作为群体的一部分做决定。在第一个案例中,参与者选择他们想要0.30美元还是额外的0.90美元。

当蜂群的一部分时,这群人负责将“磁铁”移向六个位置中的一个:三个0.30美元,三个0.090美元。

抓住吗?如果两组中都有超过30%的人选择了更高的金额,每个人都会空手而归。

另外,需要注意的是:“用户在决策时只能看到自己的磁铁,而不能看到别人的磁铁。”因此,虽然他们可以实时看到冰球的运动,这代表了整个蜂群的新兴意志,但他们不受支持的具体分解的影响。这限制了社会偏见。”

结果呢?当单独询问时,67%的参与者要求得到0.90美元的奖励,没有人得到现金奖励。研究人员称这是“TOC困境的典型表现”。然而,蜂群的结果是24%的人向0.90美元靠拢,70%向0.30美元靠拢,6%的人放弃了自己的决定。

研究人员说,这群人想出了一个“优化整个群体支出的解决方案”,打败了传统的TOC问题。

在第二个实验中,70名受试者被要求在两种情况下再次做出决定:一种是通过标准的在线投票的多数人投票的团队决定,另一种是使用实时群体。

有三支队伍:橙色、黄色和紫色。每个团队被告知,所有成员将获得0.25美元或0.75美元的额外奖金,只是由团队询问他们想要哪种奖金。但如果超过三分之一的球队要求更高的奖金,没有人会得到奖金。

结果:70个人中有47人要求得到美元。075年的奖金。研究人员说:“因此,当被试者被视为一群互不相关的个体时,他们再一次陷入了TOC困境。”当他们被分组后,三个人都要求巨额奖金。

当这群人成群结队时,三支队伍中有两支要求得到小奖金。

研究人员称,“与利用集体智慧的基于投票的方法相比,人类群居可能是一种可行的技术,可以更好地做出符合群体共同利益的决定……从人类群体中产生的智慧,可能会比从群体中的个体参与者中产生的决策更有利于共同利益。”

利用“软”人工智能通过群体智能做出决策的实验,可能为思考如何创造合乎道德的人工智能提供了一种新的方式。

免责声明:本文由用户上传,如有侵权请联系删除!