人工智能工程师开发了一种方法来检测传播虚假信息的意图

导读在数字时代,处理错误信息是一个复杂的问题。不仅要对错误信息进行识别、标记和更正,还要区分索赔责任人的意图。一个人可能会无意识地传播

在数字时代,处理错误信息是一个复杂的问题。不仅要对错误信息进行识别、标记和更正,还要区分索赔责任人的意图。一个人可能会无意识地传播错误的信息,或者只是表达他对某个问题的看法,即使后来被报道为事实。最近,达特茅斯的一组人工智能研究人员和工程师创建了一个框架,可以用来从“假新闻”报告中吸取意见。

正如《科学日报》所报道的,达特茅斯集团的研究最近发表在《实验与理论人工智能杂志》。尽管之前的研究试图识别虚假新闻和打击欺骗,但这可能是第一项旨在确定发言人意图的研究。虽然一个真实的故事可以被扭曲成各种各样的欺骗形式,但区分欺骗的意图很重要。研究团队认为,在考虑虚假信息时,意图非常重要,因为只有存在误导的意图,欺骗才会发生。如果一个人没有意识到自己在传播错误的信息或者只是表达自己的观点,那么就不会有欺骗。

达特茅斯塞耶大学工程学院的工程学教授小尤金桑托斯向《科学日报》解释了为什么他们的模型试图区分欺骗性意图:

“故意误导观众的欺骗性意图比无意的错误造成的威胁更大。据我们所知,我们的算法是检测欺诈并同时区分恶意行为和良性行为的唯一方法。”

Santo认为,研究人员开发的框架可以被新闻机构和读者改进和应用,使他们能够分析“假新闻”文章的内容。读者可以查看文章中是否有观点,自己判断是否使用了逻辑论证。桑托斯还表示,该团队希望检查虚假信息的影响及其连锁反应。

流行文化通常将面部表情等非语言行为描述为某人在说谎的指标,但该研究的作者指出,这些行为意味着它们并不总是说谎的可靠指标。该论文的合著者李德清解释说,他们的研究发现,基于推理意图的模型比行为和言语之间的差异更能显示谎言。李解释说,推断意图模型“更善于区分有意谎言和其他类型的信息失真”。

达特茅斯大学研究人员的工作并不是用人工智能打击错误信息的唯一最新进展。带有诱饵标题的新闻报道往往掩盖虚假信息。例如,它们通常暗示一件事发生在另一件事实际发生的时候。

据AINews报道,亚利桑那州立大学和宾夕法尼亚州立大学的一组研究人员合作创建了一个可以检测点击诱饵的人工智能。研究人员让人们自己写点击诱饵标题,还编写了一个生成点击诱饵标题的程序。然后用这两种形式的标题训练一个模型,可以有效检测点击诱饵标题,不管是机器写的还是人写的。

据研究人员称,他们的算法在检测点击诱饵标题时,比过去的其他人工智能算法准确率高14.5%。该项目的首席研究员、宾夕法尼亚州立大学信息科学与技术学院副教授Dongwon Lee解释了他们的实验如何证明了使用AI生成数据并反馈到培训管道的实用性。

Lee解释说:“这个结果非常有趣,因为我们已经成功证明了机器生成的clickbait训练数据可以反馈到训练管道中,以训练各种机器学习模型来提高性能。”

免责声明:本文由用户上传,如有侵权请联系删除!