最新研究表明 假装成人的机器人似乎更具说服力

导读 人工智能领域的最新技术突破使得机器或机器人可以像人类一样通过。纽约大学阿布扎比分校计算机科学副教授塔拉尔·拉万(Talal Rahwan)领导

人工智能领域的最新技术突破使得机器或机器人可以像人类一样通过。纽约大学阿布扎比分校计算机科学副教授塔拉尔·拉万(Talal Rahwan)领导的一组研究人员进行了一项实验,研究人们如何与自己认为是人类的机器人进行交互,以及一旦机器人揭示了自己的身份,这种交互将如何受到影响。研究人员发现,在某些人机交互中,机器人的效率要比人类高,但前提是必须允许它们隐藏非人类的本性。

在发表于《自然机器情报》上的题为“人机合作中的透明度-效率权衡的行为证据”的论文中,研究人员介绍了他们的实验,参与者被要求与人类同伴或机器人同伴一起玩合作游戏。该游戏被称为迭代囚徒困境,旨在捕捉双方互动的各方可以自私地采取行动以试图剥削对方,或合作进行以谋取互利的结果的情况。

至关重要的是,研究人员向一些参与者提供了有关其同事身份的错误信息。一些与人互动的参与者被告知,他们正在与机器人互动,反之亦然。通过该实验,研究人员能够确定人们是否对他们认为是机器人的社会伙伴有偏见,并评估这种偏见(如果存在)在多大程度上影响了对非人性透明的机器人的效率。

结果表明,冒充机器人的机器人更有效地说服合作伙伴在游戏中进行合作。但是,一旦揭示了它们的真实本性,合作率就会下降,而僵尸程序的优势就会被否定。

拉赫万说:“尽管人们普遍认为机器应该对决策方式保持透明,但不清楚是否对他们是谁透明。”

“例如,考虑一下Google Duplex,它是一种自动语音助手,能够生成类似于人的语音来代表其用户拨打电话和进行预约。GoogleDuplex的语音非常真实,以至于电话另一侧的人可能会甚至没有意识到他们正在与机器人对话。开发这样的系统是否合乎道德?我们应该禁止机器人像人类一样通过,并强迫他们对自己是谁保持透明吗?如果答案是“是”,那么我们调查结果突出表明,有必要为我们愿意为此付出的效率成本设定标准,以换取这种透明度。”

免责声明:本文由用户上传,如有侵权请联系删除!