谷歌正在使用人工智能来更好地检测来自处于危机中的人的搜索

导读在个人危机中,许多人求助于非个人的支持来源:谷歌。每天,该公司都会搜索自杀、犯和家庭虐待等主题。但谷歌希望做更多的事情来引导人们获

在个人危机中,许多人求助于非个人的支持来源:谷歌。每天,该公司都会搜索自杀、犯和家庭虐待等主题。但谷歌希望做更多的事情来引导人们获得他们需要的信息,并表示能够更好地解析语言复杂性的新人工智能技术正在提供帮助。

具体来说,谷歌正在将其最新的机器学习模型MUM集成到其搜索引擎中,以“更准确地检测更广泛的个人危机搜索”。该公司去年在其IO会议上推出了MUM,此后一直使用它来增强搜索功能,尝试回答与原始搜索相关的问题。

Google健康和信息质量产品经理AnneMerritt表示,在这种情况下,MUM将能够发现早期搜索工具无法发现的与困难的个人情况相关的搜索查询。

“妈妈能够帮助我们理解更长或更复杂的问题,比如‘当我说我不爱他时,他为什么要攻击我,’”梅里特告诉TheVerge。“对于人类来说,这个查询是关于家庭暴力的可能很明显,但是如果没有先进的人工智能,我们的系统很难理解像这样的长的自然语言查询。”

MUM可以回应的其他查询示例包括“完成自杀的最常见方式”(Merrit表示早期的系统“以前可能被理解为信息搜索”)和“悉尼自杀热点”(同样,早期的回答会可能返回了旅行信息——忽略了“自杀”的提及,而选择了更流行的“热点”查询)。当谷歌检测到此类危机搜索时,它会以一个信息框进行响应,告诉用户“有帮助”,通常伴随着一个电话号码或网站,用于像撒玛利亚人这样的心理健康慈善机构。

除了使用MUM来应对个人危机外,谷歌还表示,它还使用较旧的AI语言模型BERT来更好地识别寻找色情等露骨内容的搜索。谷歌表示,通过利用BERT,它“将意外的令人震惊的结果同比减少了30%”。然而,该公司无法分享其用户平均遇到多少“令人震惊的结果”的绝对数字,因此虽然这是一个比较改进,但它并没有说明问题实际有多大或多小。

谷歌很想告诉你,人工智能正在帮助公司改进其搜索产品——尤其是在有一种说法是“谷歌搜索正在消亡”的时候。但集成这项技术也有其缺点。

许多人工智能专家警告说,谷歌越来越多地使用机器学习语言模型可能会给公司带来新的问题,比如在搜索结果中引入偏见和错误信息。人工智能系统也是不透明的,让工程师对他们如何得出某些结论的洞察力有限。

例如,当我们询问Google如何提前验证MUM识别的哪些搜索词与个人危机相关时,其代表要么不愿意,要么无法回答。该公司表示,它使用人工评估员严格测试对其搜索产品的更改,但这与提前知道你的人工智能系统将如何响应某些查询不同。不过,对于谷歌来说,这样的取舍显然是值得的。

免责声明:本文由用户上传,如有侵权请联系删除!