知识图谱技术原理介绍

上传人:伴*** 文档编号:168695835 上传时间:2022-11-11 格式:DOC 页数:12 大小:508KB
返回 下载 相关 举报
知识图谱技术原理介绍_第1页
第1页 / 共12页
知识图谱技术原理介绍_第2页
第2页 / 共12页
知识图谱技术原理介绍_第3页
第3页 / 共12页
点击查看更多>>
资源描述
知识图谱技术原理介绍近两年来,随着 Linking Open Data1等项目的全面展开,语义 Web 数据源的 数量激增,大量 RDF 数据被发布。互联网正从仅包含网页和网页之间超链接的文 档万维网( Document Web)转变成包含大量描述各种实体和实体之间丰富关系 的数据万维网(Data Web).在这个背景下,Google、百度和搜狗等搜索引擎公司 纷纷以此为基础构建知识图谱,分别为 Knowledge Graph、知心和知立方,来改 进搜索质量,从而拉开了语义搜索的序幕 .下面我将从以下几个方面来介绍知识图 谱:知识图谱的表示和在搜索中的展现形式 ,知识图谱的构建和知识图谱在搜索 中的应用等,从而让大家有机会了解其内部的技术实现和各种挑战。知识图谱的表示和在搜索中的展现形式正如 Google 的辛格博士在介绍知识图谱时提到的:“The world is not made of strings , but is made of things.”,知识图谱旨在描述真实世界中存在的各种实体或 概念。其中,每个实体或概念用一个全局唯一确定的 ID 来标识,称为它们的标识 符(identifier)。每个属性值对(attributevalue pair,又称 AVP)用来刻画实体 的内在特性,而关系(relation)用来连接两个实体,刻画它们之间的关联。知识 图谱亦可被看作是一张巨大的图,图中的节点表示实体或概念,而图中的边则由属性或关系构成。上述图模型可用 W3C 提出的资源描述框架 RDF2或属性图(property graph)3来表示.知识图谱率先由 Google 提出,以提高其搜索的质量。为了更好地理解知识图谱,我们先来看一下其在搜索中的展现形式,即知识卡片 (又称 Knowledge Card ).知识卡片旨在为用户提供更多与搜索内容相关的信息。 更具体地说 ,知识卡片为用户查询中所包含的实体或返回的答案提供详细的结构 化摘要。从某种意义来说 ,它是特定于查询( query specific)的知识图谱。例如 , 当在搜索引擎中输入“姚明”作为关键词时,我们发现搜索结果页面的右侧原先 用于置放广告的地方被知识卡片所取代。广告被移至左上角 , 而广告下面则显示 的是传统的搜索结果,即匹配关键词的文档列表。这个布局上的微调也预示着各 大搜索引擎在提高用户体验和直接返回答案方面的决心。图 1 从左到右依次是 Google、百度和搜狗在搜索结果首页中所展现的与姚明相关的知识卡片。123http:/linkeddata.org/http:/www.w3.org/TR/rdf-concepts/ 图 1。 当搜索“姚明时,Google、百度和搜狗所展示的知识卡片 虽说三大搜索引擎在知识卡片的排版和内容展现上略有不同,但是它们都列出了姚明的身高、体重、民族等属性信息.此外,它们均包含“用户还搜 索了”或“其他人还搜”的功能来展现相关的人物.该功能允许用户去浏览其 他与姚明相关的人物的详细信息。细心的读者也发现 Google 在其知识卡片中 也展示了很多与姚明相关的图片,以图文并茂的方式来展示姚明的方方面面。 百度则结合了百度风云榜的信息,列出了姚明的类别(体坛人物)及其百度 指数(今日排名和今日搜索热度等信息)。在搜索结果页面的左上角(在图中 未给出),百度还展示了其特有的专题搜索,包含了与姚明相关的百科、图片、 微博、新闻、音乐、贴吧和视频等七大类的结果,基本涵盖了用户最基本的 需求.搜狗在列出与姚明相关的百科、图片,电影和最新相关消息等专题的同 时,其知识卡片额外显示了诸如“主持电视节目”、“效力篮球队 、“人物关 系”等各种细粒度的语义关系。当遇到含有歧义的用户查询时,知识卡片还 会列出其他可能的查询目标对象.在上面的例子中,搜狗还列出了一项“您是 否要找”的功能,列出一位也叫姚明的一级作曲家。该功能用于去歧义,在显 示最相关实体的同时也给出其他可能的对象,达到去歧义的作用。当搜索“李 娜”或“长城时,Google 和百度也在其知识卡片下方展现了类似的功能。除了给出著名网球运动员李娜和万里长城之外,它们还列出歌手李娜和长城汽 车供用户选择和浏览。更值得一提的是,当在搜狗知立方中输入“姚明的老 婆的女儿的身高”如此复杂的查询时,其会直接返回其女儿的姓名(姚沁蕾) 以及其身高(110cm),并给出推理说明“叶莉的女儿是姚沁蕾”。如此详实的 说明不仅为返回的答案提供了很好的解释 , 从另一个侧面也展示了知识图谱 的强大,其不仅能识别出运动员姚明,也能抽取出关系“老婆和“女儿”和 属性“身高”等信息.当我们将查询修改为“姚明的妻子的女儿的身高”时, 依然返回相同的结果,这也意味着知识图谱知道“妻子”和“老婆代表相同 的含义。通过上述的介绍,大家应该对知识图谱的表示以及其在搜索中的展现形 式有了更深的了解。接着,我将介绍知识图谱的构建以及如何在搜索中应用 知识图谱返回相应的知识卡片以及答案.知识图谱的构建1. 知识图谱的规模据不完全统计,Google 知识图谱到目前为止包含了 5 亿个实体和 35 亿 条事实(形如实体属性 -值,和实体关系实体 )。其知识图谱是面向全球 的,因此包含了实体和相关事实的多语言描述。不过相比占主导的英语外 , 仅包含其他语言(如中文)的知识图谱的规模则小了很多。与此不同的是,百 度和搜狗主要针对中文搜索推出知识图谱,其知识库中的知识也主要以中文 来描述,其规模略小于 Google 的。2. 知识图谱的数据来源为了提高搜索质量,特别是提供如对话搜索和复杂问答等新的搜索体验, 我们不仅要求知识图谱包含大量高质量的常识性知识,还要能及时发现并添 加新的知识。在这种背景下,知识图谱通过收集来自百科类站点和各种垂直 站点的结构化数据来覆盖大部分常识性知识。这些数据普遍质量较高,更新 比较慢。而另一方面,知识图谱通过从各种半结构化数据(形如 HTML 表格) 抽取相关实体的属性 -值对来丰富实体的描述。此外,通过搜索日志( query log)发现新的实体或新的实体属性从而不断扩展知识图谱的覆盖率。相比高 质量的常识性知识,通过数据挖掘抽取得到的知识数据更大,更能反映当前用户的查询需求并能及时发现最新的实体或事实,但其质量相对较差,存在一 定的错误。这些知识利用互联网的冗余性在后续的挖掘中通过投票或其他聚 合算法来评估其置信度,并通过人工审核加入到知识图谱中。a) 百科类数据维基百科 4,通过协同编辑,已经成为最大的在线百科全书,其质量与大英百科媲美。可以通过以下方式来从维基百科中获取所需的内容:通 过文章页面(Article Page)抽取各种实体;通过重定向页面(Redirect Page) 获得这些实体的同义词(又称 Synonym);通过去歧义页面(Disambiguation Page)和内链锚文本(Internal Link Anchor Text )获得它们的同音异义词 (又称 Homonym);通过概念页面(Category Page) 获得各种概念以及其上 下位( subclass)关系;通过文章页面关联的开放分类抽取实体所对应的 类别 ; 通过信息框( Infobox)抽取实体所对应的属性值对和关系实体 对。类似地,从百度百科和互动百科抽取各种中文知识来弥补维基百科中文数据不足的缺陷 . 此外, Freebase5是另一个重要的百科类的数据源,其45包含超过 3900 万个实体(其称为 Topics)和 18 亿条事实,规模远大于维 基百科。对比之前提及的知识图谱的规模,我们发现仅 Freebase 一个数据 源就构成了 Google 知识图谱的半壁江山。更为重要的是,维基百科所编辑 的是各种词条,这些词条以文章的形式来展现,包含各种半结构化信息 , 需要通过事先制定的规则来抽取知识;而 Freebase 则直接编辑知识,包括 实体及其包含的属性和关系,以及实体所属的类型等结构化信息。因此, 不需要通过任何抽取规则即可获得高质量的知识。虽然开发 Freebase 的母 公司 MetaWeb 于 2010 年被 Google 收购,Freebase 还是作为开放的知识 管理平台独立运行。所以百度和搜狗也将 Freebase 加入到其知识图谱中。b) 结构化数据除了百科类的数据 , 各大搜索引擎公司在构建知识图谱时,还考虑其 他结构化数据。其中 ,LOD 项目在发布各种语义数据的同时,通过 owl:sameAs 将新发布的语义数据中涉及的实体和 LOD 中已有数据源所包 含 的 潜 在 同 一 实 体 进 行 关 联 , 从 而 实 现 了 手 工 的 实 体 对 齐 (entityhttp:/www.wikipedia.org/alignment)。LOD 不仅包括如 DBpedia6和 YAGO7等通用语义数据集,还包括如 MusicBrainz8和 DrugBank9等特定领域的知识库。因此,Google 等通 过整合 LOD 中的(部分)语义数据提高知识的覆盖率,尤其是垂直领域 的各种知识。此外,Web 上存在大量高质量的垂直领域站点(如电商网站,点评网站等),这些站点被称为 Deep Web10。它们通过动态网页技术将保存在数据库中的各种领域相关的结构化数据以 HTML 表格的形式展现给 用户。各大搜索引擎公司通过收购这些站点或购买其数据来进一步扩充其 知识图谱在特定领域的知识 .这样做出于三方面原因:其一、大量爬取这些 站点的数据会占据大量带宽,导致这些站点无法被正常访问;其二、爬取 全站点数据可能会涉及知识产权纠纷;最后 , 相比静态网页的爬取 ,Deep Web 爬虫需要通过表单填充(Form Filling)技术来获取相关内容,且解析 这些页面中包含的结构化信息需要额外的自动化抽取算法,具体细节在下 一节描述.c) 半结构化数据挖掘 AVP虽然从 Deep Web 爬取数据并解析其中所包含的结构化信息面临很大 的挑战,各大搜索引擎公司仍在这方面投入了大量精力。一方面 ,Web 上 存在大量长尾的结构化站点 , 这些站点提供的数据与最主流的相关领域站 点所提供的内容具有很强的互补性,因此对这些长尾站点进行大规模的信 息抽取 (尤其是实体相关的属性值对的抽取)对于知识图谱所含内容的 扩展是非常有价值的. 另一方面,中文百科类的站点(如百度百科等)的结 构化程度远不如维基百科,能通过信息框获得 AVP 的实体非常稀少,大 量属性-值对隐含在一些列表或表格中.一个切实可行的做法是构建面向站 点的包装器(Site-specific Wrapper).其背后的基本思想是:一个 Deep Web 站点中的各种页面由统一的程序动态生成,具有类似的布局和结构 .利用这一点,我们仅需从当前待抽取站点采样并标注几个典型详细页面678910(Detailed Pages ),利用这些页面通过模式学习算法(Pattern Learning )自http:/dbpedia.org/http:/www.mpi-inf.mpg.de/yago-naga/yago/http:/musicbrainz.org/http:/www.drugbank.ca/相对以静态网页和超链接关联的浅层 Web(Shallow Web)而言,称为深层 Web。动构建出一个或多个以类 Xpath 表示的模式,然后将其应用在该站点的其 他详细页面中从而实现自动化的 AVP 抽取。对于百科类站点,我们可以 将具有相同类别的页面作为某个“虚拟”站点 ,并使用类似的方法进行实 体 AVP 的抽取。自动学习获得的模式并非完美,可能会遗漏部分重要的 属性,也可能产生错误的抽取结果 .为了应对这个问题,搜索引擎公司往 往通过构建工具来可视化这些模式,并人工调整或新增合适的模式用于抽 取。此外,通过人工评估抽取的结果,将那些抽取结果不令人满意的典型 页面进行再标注来更新训练样本,从而达到主动学习(Active Learning)的目 的。d) 通过搜索日志进行实体和实体属性等挖掘搜索日志是搜索引擎公司积累的宝贵财富.一条搜索日志形如查询, 点击的页面链接,时间戳 。通过挖掘搜索日志,我们往往可以发现最新 出现的各种实体及其属性,从而保证知识图谱的实时性。这里侧重于从查 询的关键词短语和点击的页面所对应的标题中抽取实体及其属性。选择查 询作为抽取目标的意义在于其反映了用户最新最广泛的需求,从中能挖掘 出用户感兴趣的实体以及实体对应的属性。而选择页面的标题作为抽取目 标的意义在于标题往往是对整个页面的摘要,包含最重要的信息。据百度 研究者的统计, 90以上的实体可以在网页标题中被找到 .为了完成上述 抽取任务,一个常用的做法是:针对每个类别 ,挑选出若干属于该类的实 体( 及相关属性)作为种子( Seeds ),找到包含这些种子的查询和页面标 题,形成正则表达式或文法模式。这些模式将被用于抽取查询和页面标题 中出现的其他实体及其属性 . 如果当前抽取所得的实体未被包含在知识图 谱中,则该实体成为一个新的候选实体。类似地,如果当前被抽取的属性 未出现在知识图谱中 , 则此属性成为一个新的候选属性。这里 ,我们仅保留 置信度高的实体及其属性,新增的实体和属性将被作为新的种子发现新的 模式。此过程不断迭代直到没有新的种子可以加入或所有的模式都已经找 到且无法泛化。在决定模式的好坏时 ,常用的基本原则是尽量多地发现属 于当前类别的实体和对应属性,尽量少地抽取出属于其他类别的实体及属 性。上述方法被称为基于 Bootstrapping 的多类别协同模式学习。3. 从抽取图谱到知识图谱上述所介绍的方法仅仅是从各种类型的数据源抽取构建知识图谱所需的 各种候选实体(概念)及其属性关联,形成了一个个孤立的抽取图谱(Extraction Graphs)。为了形成一个真正的知识图谱 ,我们需要将这些信息孤岛集成在一 起。下面我对知识图谱挖掘所涉及的重要技术点逐一进行介绍.a) 实体对齐实体对齐(Object Alignment)旨在发现具有不同 ID 但却代表真实 世界中同一对象的那些实体,并将这些实体归并为一个具有全局唯一标 识的实体对象添加到知识图谱中 . 虽然实体对齐在数据库领域被广泛研 究,但面对如此多异构数据源上的 Web 规模的实体对齐,这还是第一次尝 试。各大搜索引擎公司普遍采用的方法是聚类。聚类的关键在于定义合 适的相似度度量。这些相似度度量遵循如下观察:具有相同描述的实体可 能代表同一实体 ( 字符相似) ; 具有相同属性值的实体可能代表相同对 象(属性相似 );具有相同邻居的实体可能指向同一个对象(结构相似 )。 在此基础上,为了解决大规模实体对齐存在的效率问题,各种基于数据划 分或分割的算法被提出将实体分成一个个子集,在这些子集上使用基于 更复杂的相似度计算的聚类并行地发现潜在相同的对象。另外,利用来 自如 LOD 中已有的对齐标注数据(使用 owl:sameAs 关联两个实体) 作为训练数据,然后结合相似度计算使用如标签传递(Label Propagation) 等基于图的半监督学习算法发现更多相同的实体对。无论何种自动化方 法都无法保证 100的准确率,所以这些方法的产出结果将作为候选供 人工进一步审核和过滤。b) 知识图谱 schema 构建在之前的技术点介绍中 , 大部分篇幅均在介绍知识图谱中数据层 (Data Level)的构建,而没有过多涉及模式层 (Schema Level). 事实上 , 模式是对知识的提炼,而且遵循预先给定的 schema 有助于知识的标准化, 更利于查询等后续处理。为知识图谱构建 schema 相当于为其建立本体 (Ontology).最基本的本体包括概念、概念层次、属性、属性值类型、关 系、关系定义域(Domain)概念集以及关系值域(Range)概念集.在此基础上,我们可以额外添加规则(Rules)或公理(Axioms)来表示模式层 更复杂的约束关系。面对如此庞大且领域无关的知识库,即使是构建最 基本的本体,也是非常有挑战的。Google 等公司普遍采用的方法是自顶向 下(TopDown)和自底向上(Bottom-Up)相结合的方式。这里,自顶 向下的方式是指通过本体编辑器(Ontology Editor)预先构建本体。当然 这里的本体构建不是从无到有的过程,而是依赖于从百科类和结构化数 据得到的高质量知识中所提取的模式信息。更值得一提的是,Google 知 识图谱的 Schema 是在其收购的 Freebase 的 schema 基础上修改而得。 Freebase 的模式定义了 Domain(领域),Type(类别)和 Topic(主题, 即实体)。每个 Domain 有若干 Types,每个 Type 包含多个 Topics 且和多 个 Properties 关联,这些 Properties 规定了属于当前 Type 的那些 Topics 需要包含的属性和关系。定义好的模式可被用于抽取属于某个 Type 或满 足某个 Property 的新实体(或实体对).另一方面,自底向上的方式则通 过上面介绍的各种抽取技术,特别是通过搜索日志和 Web Table 抽取发 现的类别、属性和关系,并将这些置信度高的模式合并到知识图谱中。 合并过程将使用类似实体对齐的对齐算法 . 对于未能匹配原有知识图谱 中模式的类别、属性和关系作为新的模式加入知识图谱供人工过滤.自顶 向下的方法有利于抽取新的实例,保证抽取质量,而自底向上的方法则能 发现新的模式。两者是互补的。c) 不一致性的解决当融合来自不同数据源的信息构成知识图谱时,有一些实体会同时 属于两个互斥的类别(如男女 )或某个实体所对应的一个 Property11(如性别 ) 对应多个值 . 这样就会出现不一致性. 这些互斥的类别对以及Functional Properties 可以看作是模式层的知识,通常规模不是很大,可 以通过手工指定规则来定义 . 而由于不一致性的检测要面对大规模的实 体及相关事实,纯手工的方法将不再可行。一个简单有效的方法充分考 虑数据源的可靠性以及不同信息在各个数据源中出现的频度等因素来决 定最终选用哪个类别或哪个属性值。也就是说,我们优先采用那些可靠11称为 Functional Property,即仅允许和一个值关联。如果该 property 是属性,那么就只能和一个属性值关 联,如果是关系,则只能关联一个对象。性高的数据源(如百科类或结构化数据)抽取得到的事实。另外,如果一个实体在多个数据源中都被识别为某个类别的实例,或实体某个functional property 在多个数据源中都对应相同的值,那么我们倾向于最终 选择该类别和该值.注:在统计某个类别在数据源中出现的频率前需要完 成类别对齐计算.类似地,对于数值型的属性值我们还需要额外统一它们 所使用的单位.4. 知识图谱上的挖掘通过各种信息抽取和数据集成技术已经可以构建 Web 规模的知识图 谱。为了进一步增加图谱的知识覆盖率,需要进一步在知识图谱上进行挖 掘。下面将介绍几项重要的基于知识图谱的挖掘技术。a) 推理推理(Reasoning 或 Inference)被广泛用于发现隐含知识.推理功能 一般通过可扩展的规则引擎来完成 .知识图谱上的规则一般涉及两大 类。一类是针对属性的,即通过数值计算来获取其属性值。例如:知 识图谱中包含某人的出生年月,我们可以通过当前日期减去其出生年 月获取其年龄。这类规则对于那些属性值随时间或其他因素发生改变 的情况特别有用.另一类是针对关系的,即通过(链式)规则发现实体间 的隐含关系。例如 ,我们可以定义规定:岳父是妻子的父亲 .利用这条 规则,当已知姚明的妻子(叶莉)和叶莉的父亲(叶发 ) 时,可以推 出姚明的岳父是叶发。b) 实体重要性排序搜索引擎识别用户查询中提到的实体 ,并通过知识卡片展现该实 体的结构化摘要。当查询涉及多个实体时,搜索引擎将选择与查询更 相关且更重要的实体来展示。实体的相关性度量需在查询时在线计 算,而实体重要性与查询无关可离线计算.搜索引擎公司将 PageRank 算法12应用在知识图谱上来计算实体的重要性。和传统的 Web Graph 相比,知识图谱中的节点从单一的网页变成了各种类型的实体 ,而图 中的边也由连接网页的超链接(Hyperlink)变成丰富的各种语义关系.12 PageRank 算法用来衡量页面的重要性,当有很多重要的页面链入到当前页面,该页面的重要性也很好。由于不同的实体和语义关系的流行程度以及抽取的置信度均不同,而 这些因素将影响实体重要性的最终计算结果,因此,各大搜索引擎公 司嵌入这些因素来刻画实体和语义关系的初始重要性,从而使用带偏 的 PageRank 算法(Biased PageRank)。c) 相关实体挖掘在相同查询中共现的实体 ,或在同一个查询会话( Session )中被 提到的其他实体称为相关实体。一个常用的做法是将这些查询或会话 看作是虚拟文档,将其中出现的实体看作是文档中的词条,使用主题 模型(如 LDA)发现虚拟文档集中的主题分布。其中每个主题包含 1 个或多个实体 ,这些在同一个主题中的实体互为相关实体。当用户输 入查询时,搜索引擎分析查询的主题分布并选出最相关的主题。同时, 搜索引擎将给出该主题中与知识卡片所展现的实体最相关的那些实 体作为“其他人还搜了”的推荐结果。5. 知识图谱的更新和维护a) Type 和 Collection 的关系知识图谱的 schema 为了保证其质量,由专业团队审核和维护。以Google 知识图谱为例,目前定义的 Type 数在 103104的数量级。为了提高知识图谱的覆盖率,搜索引擎公司还通过自动化算法从各种数 据源抽取新的类型信息(也包含关联的 Property 信息),这些类型信 息通过一个称为 Collection 的数据结构保存。它们不是马上被加入到 知识图谱 schema 中.有些今天生成后第二天就被删除了,有些则能长 期的保留在 Collection 中,如果 Collection 中的某一种类型能够长期 的保留,发展到一定程度后,由专业的人员进行决策和命名并最终成为 一种新的 Type。b) 结构化站点包装器的维护站点的更新常常会导致原有模式失效。搜索引擎会定期检查站点 是否存在更新.当检测到现有页面(原先已爬取)发生了变化,搜索引擎 会检查这些页面的变化量,同时使用最新的站点包装器进行 AVP 抽 取。如果变化量超过事先设定的阈值且抽取结果与原先标注的答案差别较大,则表明现有的站点包装器失效了 .在这种情况下,需要对最 新的页面进行重新标注并学习新的模式,从而构建更新的包装器。c) 知识图谱的更新频率加入到知识图谱中的数据不是一成不变的。 Type 对应的实例往 往是动态变化的。例如 ,美国总统,随着时间的推移 , 可能对应不同的 人。由于数据层的规模和更新频度都远超 schema 层,搜索引擎公司 利用其强大的计算保证图谱每天的更新都能在 3 个小时内完成,而实 时的热点也能保证在事件发生 6 个小时内在搜索结果中反映出来.d) 众包(Crowdsourcing)反馈机制除了搜索引擎公司内部的专业团队对构建的知识图谱进行审核 和维护,它们还依赖用户来帮助改善图谱。具体来说,用户可以对搜 索结果中展现的知识卡片所列出的实体相关的事实进行纠错。当很多 用户都指出某个错误时,搜索引擎将采纳并修正。这种利用群体智慧 的协同式知识编辑是对专业团队集中式管理的互补。知识图谱在搜索中的应用1. 查询理解搜索引擎借助知识图谱来识别查询中涉及到的实体(概念)及其属性等, 并根据实体的重要性展现相应的知识卡片。搜索引擎并非展现实体的全部属 性,而是根据当前输入的查询自动选择最相关的属性及属性值来显示。此外, 搜索引擎仅当知识卡片所涉及的知识的正确性很高 (通常超过 95,甚至达到 99)时,才会展现。当要展现的实体被选中之后,利用相关实体挖掘来推 荐其他用户可能感兴趣的实体供进一步浏览.2. 问题回答除了展现与查询相关的知识卡片,知识图谱对于搜索所带来的另一个革 新是:直接返回答案,而不仅仅是排序的文档列表。要实现自动问答系统,搜 索引擎不仅要理解查询中涉及到的实体及其属性,更需要理解查询所对应的 语义信息。搜索引擎通过高效的图搜索,在知识图谱中查找连接这些实体及 属性的子图并转换为相应的图查询(如 SPARQL13)。这些翻译过的图查询被13 http:/www.w3.org/TR/rdf-sparql-query/ 进一步提交给图数据库进行回答返回相应的答案。总结这篇文章比较系统地介绍了知识图谱的表示、构建、挖掘以及在搜索中的应 用。通过上述介绍,大家可以看出:1)目前知识图谱还处于初期阶段;2)人工干预 很重要;3)结构化数据在知识图谱的构建中起到决定性作用;4)各大搜索引擎公 司为了保证知识图谱的质量多半采用成熟的算法;5)知识卡片的给出相对比较谨 慎;6)更复杂的自然语言查询将崭露头角(如 Google 的蜂鸟算法)。此外,知识图谱的构建是多学科的结合 ,需要知识库、自然语言理解,机器 学习和数据挖掘等多方面知识的融合。有很多开放性问题需要学术界和业界一起 解决.我们有理由相信学术界在上述方面的突破将会极大地促进知识图谱的发展.致谢感谢来自谷歌的王栋博士、来自搜狗的张坤以及来自百度的吴华博士和赵士奇博 士分别介绍了 Google 知识图谱、搜狗知立方和百度知心系统的工作.他们精彩的 报告是本篇技术文章的基础.撰稿人简介:王昊奋,上海交通大学计算机应用专业博士,对语义搜索、图数据库以及 Web 挖掘与信息抽取有浓厚的兴趣。在博士就读期间发表了 30 余篇国际顶级会议和 期刊论文,长期在 WWW、ISWC 等顶级会议担任程序委员会委员。作为 Apex 数据与知识管理实验室语义组负责人,他主持并参与了多项相关项目的研发 , 长 期与 IBM、百度等知名 IT 企业进行合作,在知识图谱相关的研究领域积累了丰 富的经验。
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 图纸专区 > 小学资料


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!