自诞生以来,计算机一直依靠人工语言来运行。这些语言是为了向机器传达指令而创建的,因此它们不可能理解自然语言,即人们在日常生活中说话、写作或聊天时实际使用的表达方式。事实上,人类语言比形式语言更复杂、多样化且具有许多细微差别。
自然语言处理(NLP)就是出于这种需
求而发展起来的,它是人工智能研究的一个领域,旨在开发用于理解自然语言(即我们日常生活中使用的语言)的模型。但是如何 印尼手机号购买 教机器说话呢?语言以各种粒度级别被“教授”给机器:单词、单词之间的关系及其在特定语境中的用法、句法依赖关系和语义关系。这种方法由机器学习和深度学习算法补充,试图“模仿”人类大脑的功能。
谷歌在自然语言处理领域迈出的第
步是推出 Hummingbird(2013 年)和 RankBrain(2015 年)。蜂鸟是一项核心更新,表明谷歌致力于越来越深入地理解搜索查询的意图,以便为用户提供越来越相关的结果。 RankBrain 在 Hummingbird 下运行:它是一种深度学习算法,使用数学向量将语言转换为计算机可理解的实体,从而帮助核心算法更好地解释用户查询。
Google BERT:来自 Transformer 的双向编码器表示
的双向编码器表示的缩写,是一种基于神经网络的自然语言处理预训练技术。简单来说,它可以用来帮助谷歌更好地辨别 轮到我们谈论我们最自豪的事情我们的工作方式 搜索查询中单词的上下文。如果此次更新之前的模型是按照单词的书写顺序来处理单个单词的,那么实际上它们是以单向的方式设计的(即,上下文窗口中单词的含义只能朝一个方向移动,从左到右或从右到左,但永远不会同时移动),而 BERT 能够同时以双向方式观察一个句子中的所有单词,从而理解每个单词如何影响所有其他单词,就像人类思维一样。
例如,如果用户在算法更新之前
输入了查询“2019 年巴西旅行者前往美国需要签证”,浏览器将为想要前往巴西的美国公民提供有用的链接。然而,正确的 西班牙比特币数据库 搜索意图并不是这个,而是了解前往美国的巴西游客是否需要签证。 BERT 能够理解句子中不同术语之间的关联,从而通过捕捉准确的搜索意图进行干预。