资源描述
单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,单击此处编辑母版标题样式,大数据技术及应用,信息科学与技术学院,99,石家庄铁道大学 信息科学与技术学院,第四章 分布式数据库,HBase,大数据技术及应用,提纲,4.1,概述,4.2HBase,访问接口,4.3HBase,数据模型,4.4HBase,的实现原理,4.5HBase,运行机制,4.6 HBase,应用方案,4.7 HBase,编程实践,4.1,概述,4.1.1,从,BigTable,说起,4.1.2HBase,简介,4.1.3HBase,与传统关系数据库的对比分析,4.1.1,从,BigTable,说起,主流解决方案厂商的发展策略及现状,主流解决方案Google云计算,数据存储在“云”中,数据访问不受地理位置限制,数据能够很方便的共享,Google,云计算技术具体包括:,Google,文件系统,海量数据分布存储技术,(,GFS),、,分布式计算编程模型,MapReduce,、,分布式锁服务,Chubby,分布式结构化数据存储系统,Bigtable,等。,主流解决方案,Google,云计算,Google,需要一个支持海量存储的文件系统,购置昂贵的分布式文件系统与硬件?,Google,设计,GFS,的动机,是否可以在一堆廉价且不可靠的硬件上构建可靠的分布式文件系统?,7,为什么不使用当时现存的文件系统?,Google,所面临的问题与众不同,不同的工作负载,不同的设计优先级(廉价、不可靠的硬件),需要设计与,Google,应用和负载相符的文件系统,Google,设计,GFS,的动机,8,一个适用于大规模分布式数据处理相关应用的,可扩展的分布式文件系统。它基于普通的不算昂贵的硬件设备,实现了容错的设计,并且为大量客户端提供极高的聚合处理性能。,GFS,GFS,的假设与目标,硬件出错是正常而非异常,系统应当由大量廉价、易损的硬件组成,必须保持文件系统整体的可靠性,主要负载是流数据读写,主要用于程序处理批量数据,而非与用户的交互或随机读写,数据写主要是“追加写”,“插入写”非常少,需要存储大尺寸的文件,存储的文件尺寸可能是,GB,或,TB,量级,而且应当能支持存储成千上万的大尺寸文件,9,将文件划分为若干块(,Chunk,)存储,每个块固定大小(,64M,),通过冗余来提高可靠性,每个数据块至少在,3,个数据块服务器上冗余,数据块损坏概率?,通过单个,master,来协调数据访问、元数据存储,结构简单,容易保持元数据一致性,无缓存,GFS,的设计思路,10,GFS,将容错的任务交给,文件系统,完成,利用软件的方法解决系统可靠性问题,使存储的成本成倍下降。,GFS,将服务器故障视为正常现象,并采用多种方法,从多个角度,使用不同的容错措施,确保数据存储的安全、保证提供,不间断的数据存储服务。,GFS,架构是怎样的?,GFS,系统架构,Client,(客户端):应用程序的,访问接口,Master,(主服务器):,管理节点,,在逻辑上只有一个,保存系统的元数据,负责整个文件系统的管理,Chunk Server,(数据块服务器):负责具体的,存储,工作。数据以文件的形式存储在,Chunk Server,上,控制流,状态流,IO,并行,需要存储的数据种类繁多:,Google,目前向公众开放的服务很多,需要处理的数据类型也非常多。包括,URL,、网页内容、用户的个性化设置,在内的数据都是,Google,需要经常处理的,海量的服务请求:,Google,运行着目前世界上最繁忙的系统,它每时每刻处理的客户服务请求数量是普通的系统根本无法承受的,商用数据库无法满足,Google,的需求:一方面现有商用数据库设计着眼点在于通用性,根本无法满足,Google,的,苛刻服务,要求;另一方面对于底层系统的完全掌控会给后期的系统维护、升级带来极大的便利,设计动机,分布式结构化数据表,Bigtable,设计动机与目标,基本目标,高可用性,Bigtable,设计的重要目标之一就是确保几乎所有的情况下系统都可用,广泛的适用性,Bigtable,是为了满足系列,Google,产品而非特定产品存储要求,简单性,底层系统简单性既可减少系统出错概率,也为上层应用开发带来便利,很强的可扩展性,根据需要随时可以加入或撤销服务器,BigTable,为谷歌旗下的搜索、地图、财经、打印、以及社交网站,Orkut,、视频共享网站,YouTube,和博客网站,Blogger,等业务提供技术支持。,4.1.1,从,BigTable,说起,BigTable是一个分布式存储系统,起初用于解决典型的互联网搜索问题,,利用谷歌提出的MapReduce分布式并行计算模型来处理海量数据,,,使用,GFS,作为底层数据存储,采用,Chubby,提供协同服务管理,,可以扩展到,PB,级别的数据和上千台机器,具备广泛应用性、可扩展性、高性能和高可用性等特点。,建立互联网索引,1,爬虫持续不断地抓取新页面,这些页面每页一行地存储到,BigTable,里,2,MapReduce,计算作业运行在整张表上,生成索引,为网络搜索应用做准备,搜索互联网,3,用户发起网络搜索请求,4,网络搜索应用查询建立好的索引,从,BigTable,得到网页,5,搜索结果提交给用户,数据模型,Bigtable,是一个分布式多维映射表,表中的数据通过,一个行关键字,(,Row Key,)、,一个列关键字,(,Column Key,)以及,一个时间戳,(,Time Stamp,)进行索引,Bigtable,对存储在其中的数据不做任何解析,一律看做,字符串,Bigtable,的存储逻辑可以表示为:,(row:string, column:string, time:int64)string,数据模型,行,Bigtable,的行关键字可以是,任意的字符串,,但是大小不能超过,64KB,。,Bigtable,和传统的关系型数据库有很大不同,它,不支持一般意义上的事务,但能保证对于行的读写操作具有原子性(,Atomic,),表中数据都是根据行关键字进行排序的,排序使用的是,词典序,。,一个典型实例,其中就是一个行关键字。不直接存储网页地址而将其,倒排,是,Bigtable,的一个巧妙设计。带来两个好处,:,同一地址域的网页会被存储在表中的连续位置,有利于用户查找和分析,倒排便于数据压缩,可以大幅提高压缩率,由于规模的问题,单个的大表不利于数据处理,因此,Bigtable,将一个表分成了多个子表,每个子表包含多个行。,子表是,Bigtable,中,数据划分和负载均衡的基本单位,。,数据模型,列,Bigtable,并不是简单地存储所有的列关键字,而是将其组织成所谓的,列族,每个族中的数据都属于同一个类型,并且同族的数据会被,压缩在一起保存,。引入了列族的概念之后,列关键字就采用下述的语法规则来定义:,族名:限定词(,family,:,qualifier,),族名必须有意义,限定词则可以任意选定,图中,内容、锚点都是不同的族。而,和则是锚点族中不同的限定词,族同时也是,Bigtable,中访问控制(,Access Control,)基本单元,也就是说访问权限的设置是在族这一级别上进行的,数据模型,时间戳,为了简化不同版本的数据管理,,Bigtable,目前提供了两种设置:,一种是,保留最近的,N,个不同版本,,图中数据模型采取的就是这种方法,它保存最新的三个版本数据。,另一种就是,保留限定时间内的所有不同版本,,比如可以保存最近,10,天的所有不同版本数据。失效的版本将会由,Bigtable,的垃圾回收机制自动处理,Google,的很多服务比如网页检索和用户的个性化设置等都需要保存不同时间的数据,这些不同的数据版本必须通过时间戳来区分。,系统架构,一个分布式的任务调度器,主要被用来处理分布式系统队列分组和任务调度,Bigtable,数据库的架构,由主服务器和分服务器构成,把数据库看成是一张大表,那么可将其划分为许多基本的小表,这些小表就称为,tablet,,是,bigtable,中最小的处理单位了。,主服务器负责将,Tablet,分配到,Tablet,服务器、检测新增和过期的,Tablet,服务器、平衡,Tablet,服务器之间的负载、,GFS,垃圾文件的回收、数据模式的改变(例如创建表)等。,Tablet,服务器负责处理数据的读写,并在,Tablet,规模过大时进行拆分。,Bigtable,使用集群管理系统来调度任务、管理资源、监测服务器状态并处理服务器故障。,BigTable,将数据存储分为两部分:最近的更新存储在内存中,较老的更新则以,SSTable,的格式存储在,GFS,,后者是主体部分,不可变的数据结构。写操作的内容插入到,memtable,中,当,memtable,的大小达到一个阈值时就冻结,然后创建一个新的,memtable,,旧的就转换成一个,SSTable,写入,GFS,。,使用分布式的锁服务,Chubby,来保证集群中主服务器的唯一性、保存,Bigtable,数据的引导区位置、发现,Tablet,服务器并处理,Tablet,服务器的失效、保存,Bigtable,的数据模式信息、保存存取控制列表。,系统架构,在,Bigtable,中,Chubby,主要有以下几个作用:,1.,选取并保证同一时间内只有一个主服务器(,Master Server,),2.,获取子表的位置信息,3.,保存,Bigtable,的模式信息及访问控制列表,另外在,Bigtable,的实际执行过程中,,Google,的,MapReduce,等技术也被用来改善其性能,系统架构,Bigtable,主要由三个部分组成:客户端程序库(,Client Library,),一个主服务器(,Master Server,)和多个子表服务器(,Tablet Server,),客户访问,Bigtable,服务时,首先要利用其库函数执行,Open(),操作来打开一个锁(实际上就是,获取了文件目录,),锁打开以后客户端就可以和子表服务器进行通信,和许多具有单个主节点分布式系统一样,客户端主要与子表服务器通信,几乎不和主服务器进行通信,这使得主服务器的,负载大大降低,主服务主要进行一些元数据操作以,及子表服务器之间负载调度问题,,实际数据是存储在子表服务器上,4.1.2HBase简介,HBase,是一个高可靠、高性能、面向列、可伸缩的分布式数据库,是谷歌,BigTable,的开源实现,主要用来存储非结构化和半结构化的松散数据。,HBase,的目标是处理非常庞大的表,可以通过水平扩展的方式,利用廉价计算机集群处理由超过,10,亿行数据和数百万列元素组成的数据表,Hadoop生态系统中HBase与其他部分的关系,4.1.2HBase简介,HBase,和,BigTable,的底层技术对应关系,BigTable,HBase,文件存储系统,GFS,HDFS,海量数据处理,MapReduce,Hadoop MapReduce,协同服务管理,Chubby,Zookeeper,4.1.2HBase简介,关系数据库已经流行很多年,并且,Hadoop,已经有了,HDFS,和,MapReduce,,为什么需要,HBase?,Hadoop,可以很好地解决大规模数据的离线批量处理问题,但受限于,Hadoop,MapReduce,编程框架的高延迟数据处理机制,无法满足大规模数据实时处理应用的需求,HDFS,面向批量访问模式,不是随机访问模式,传统的通用关系型数据库无法应对在数据规模剧增时导致的系统扩展性和性能问题(分库分表也不能很好解决),传统关系数据库在数据结构变化时一般需要停机维护;空列浪费存储空间,因此,出现了一类面向半结构化数据存储和处理的高可扩展、低写入,/,查询延迟的系统,例如,键值数据库、文档数据库和列族数据库(如,BigTable,和,HBase,等)。,HBase,已经成功应用于互联网服务领域和传统行业的众多在线式数据分析处理系统中。,4.1.3HBase,与传统关系数据库的对比分析,HBase,与传统的关系数据库的区别主要体现在以下几个方面:,(,1,)数据类型:,关系数据库采用关系模型,具有丰富的数据类型和存储方式,,HBase,则采用了更加简单的数据模型,它把数据存储为未经解释的字符串。,(,2,)数据操作:,关系数据库中包含了丰富的操作,其中会涉及复杂的多表连接。,HBase,操作则不存在复杂的表与表之间的关系,只有简单的插入、查询、删除、清空等,因为,HBase,在设计上就避免了复杂的表和表之间的关系。,(,3,)存储模式:,关系数据库是基于行模式存储的。,HBase,是基于列存储的,每个列族都由几个文件保存,不同列族的文件是分离的。,4.1.3HBase,与传统关系数据库的对比分析,(,4,)数据索引:,关系数据库通常可以针对不同列构建复杂的多个索引,以提高数据访问性能。,HBase,只有一个索引,行键,通过巧妙的设计,,HBase,中的所有访问方法,或者通过行键访问,或者通过行键扫描,从而使得整个系统不会慢下来,(,5,)数据维护:,在关系数据库中,更新操作会用最新的当前值去替换记录中原来的旧值,旧值被覆盖后就不会存在。而在,HBase,中执行更新操作时,并不会删除数据旧的版本,而是生成一个新的版本,旧有的版本仍然保留,(,6,)可伸缩性:,关系数据库很难实现横向扩展,纵向扩展的空间也比较有限。相反,,HBase,和,BigTable,这些分布式数据库就是为了实现灵活的水平扩展而开发的,能够轻易地通过在集群中增加或者减少硬件数量来实现性能的伸缩,4.2HBase,访问接口,HBase,访问接口,类型,特点,场合,Native Java API,最常规和高效的访问方式,适合,Hadoop MapReduce,作业并行批处理,HBase,表数据,HBase Shell,HBase,的命令行工具,最简单的接口,适合,HBase,管理使用,Thrift Gateway,利用,Thrift,序列化技术,支持,C+,、,PHP,、,Python,等多种语言,适合其他异构系统在线访问,HBase,表数据,REST Gateway,解除了语言限制,支持,REST,风格的,Http API,访问,HBase,Pig,使用,Pig Latin,流式编程语言来处理,HBase,中的数据,适合做数据统计,Hive,简单,当需要以类似,SQL,语言方式来访问,HBase,的时候,4.3HBase,数据模型,4.3.1,数据模型概述,4.3.2,数据模型相关概念,4.3.3,数据坐标,4.3.4,概念视图,4.3.5,物理视图,4.3.6,面向列的存储,4.3.1,数据模型概述,HBase,是一个稀疏、多维度、排序的映射表,这张表的索引是行键、列族、列限定符和时间戳,每个值是一个未经解释的字符串,没有数据类型,用户在表中存储数据,每一行都有一个可排序的行键和任意多的列,表在水平方向由一个或者多个列族组成,一个列族中可以包含任意多个列,同一个列族里面的数据存储在一起,列族支持动态扩展,可以很轻松地添加一个列族或列,无需预先定义列的数量以及类型,所有列均以字符串形式存储,用户需要自行进行数据类型转换,HBase,中执行更新操作时,并不会删除数据旧的版本,而是生成一个新的版本,旧有的版本仍然保留(这是和,HDFS,只允许追加不允许修改的特性相关的),4.3.2,数据模型相关概念,表:,HBase,采用表来组织数据,表由行和列组成,列划分为若干个列族,行:每个,HBase,表都由若干行组成,每个行由行键(,row key,)来标识。,列族:一个,HBase,表被分组成许多“列族”(,Column Family,)的集合,它是基本的访问控制单元,列限定符:列族里的数据通过列限定符(或列)来定位,单元格:在,HBase,表中,通过行、列族和列限定符确定一个“单元格”(,cell,),单元格中存储的数据没有数据类型,总被视为字节数组,byte,时间戳:每个单元格都保存着同一份数据的多个版本,这些版本采用时间戳进行索引,4.3.3,数据坐标,HBase,中需要根据行键、列族、列限定符和时间戳来确定一个单元格,因此,可以视为一个“四维坐标”,即,行键,列族,列限定符,时间戳,键,值,“,201505003,”,“,Info,”,“,email,”, 1174184619081,“,xie,”,“,201505003,”,“,Info,”,“,email,”, 1174184620720,“,you,”,4.3.4,概念视图,HBase,数据的概念视图,行键,时间戳,列族,contents,列族,anchor,n.www,t5,anchor:=,”,CNN,”,t4,anchor:my.look.ca=CNN.com,t3,contents:html=.,t2,contents:html=.,t1,contents:html=.,4.3.5,物理视图,HBase,数据的物理视图,:,基于列的存储,列族,contents,行键,时间戳,列族,contents,n.www,t3,contents:html=.,t2,contents:html=.,t1,contents:html=.,列族,anchor,行键,时间戳,列族,anchor,n.www,t5,anchor:=,”,CNN,”,t4,anchor:my.look.ca=CNN.com,4.3.6,面向列的存储,行式数据库和列式数据库示意图,4.3.6,面向列的存储,行式存储结构和列式存储结构,4.4HBase,的实现原理,4.4.1HBase,功能组件,4.4.2,表和,Region,4.4.3Region,的定位,4.4.1HBase,功能组件,HBase,的实现包括三个主要的功能组件:,(,1,)库函数:链接到每个客户端,(,2,)一个,Master,主服务器,(,3,)许多个,Region,服务器,主服务器Master负责管理和维护HBase表的分区信息,,维护,Region,服务器列表,分配,Region,,负载均衡,Region,服务器负责存储和维护分配给自己的,Region,,处理来自客户端的读写请求,客户端并不是直接从,Master,主服务器上读取数据,而是在获得,Region,的存储位置信息后,直接从,Region,服务器上读取数据,客户端并不依赖,Master,,而是通过,Zookeeper,来获得,Region,位置信息,大多数客户端甚至从来不和,Master,通信,这种设计方式使得,Master,负载很小,4.4.2,表和,Region,一个,HBase,表被划分成多个,Region,一个,Region,会分裂成多个新的,Region,开始只有一个,Region,,后来不断分裂,Region,拆分操作非常快,接近瞬间,因为拆分之后的,Region,读取的仍然是原存储文件,直到“合并”过程把存储文件异步地写到独立的文件之后,才会读取新文件,4.4.2,表和,Region,图,4-7,不同的,Region,可以分布在不同的,Region,服务器上,每个,Region,默认大小是,100MB,到,200MB,(,2006,年以前的硬件配置),每个,Region,的最佳大小取决于单台服务器的有效处理能力,目前每个,Region,最佳大小建议,1GB-2GB,(,2013,年以后的硬件配置),同一个,Region,不会被分拆到多个,Region,服务器,每个,Region,服务器存储,10-1000,个,Region,4.4.3Region,的定位,HBase,的三层结构,元数据表,又名,.META.,表,存储了,Region,和,Region,服务器的映射关系,当,HBase,表很大时,,.META.,表也会被分裂成多个,Region,根数据表,又名,-ROOT-,表,记录所有元数据的具体位置,-,ROOT-,表只有唯一一个,Region,,名字是在程序中被写死的,Zookeeper,文件记录了,-ROOT-,表的位置,4.4.3Region,的定位,HBase,的三层结构中各层次的名称和作用,层次,名称,作用,第一层,Zookeeper,文件,记录了,-ROOT-,表的位置信息,第二层,-ROOT-,表,记录了,.META.,表的,Region,位置信息,-ROOT-,表只能有一个,Region,。通过,-ROOT-,表,就可以访问,.META.,表中的数据,第三层,.META.,表,记录了用户数据表的,Region,位置信息,,.META.,表可以有多个,Region,,保存了,HBase,中所有用户数据表的,Region,位置信息,4.4.3Region,的定位,为了加快访问速度,,.META.,表的全部,Region,都会被保存在内存中,。,假设,.META.,表的每行(一个映射条目)在内存中大约占用,1KB,,并且每个,Region,限制为,128MB,,那么,上面的三层结构可以保存的用户数据表的,Region,数目的计算方法是:,(,-ROOT-,表能够寻址的,.META.,表的,Region,个数)(每个,.META.,表的,Region,可以寻址的用户数据表的,Region,个数),一个,-ROOT-,表最多只能有一个,Region,,也就是最多只能有,128MB,,按照每行(一个映射条目)占用,1KB,内存计算,,128MB,空间可以容纳,128MB/1KB=2,17,行,也就是说,一个,-ROOT-,表可以寻址,2,17,个,.META.,表的,Region,。,同理,每个,.META.,表的,Region,可以寻址的用户数据表的,Region,个数是,128MB/1KB=2,17,。,最终,三层结构可以保存的,Region,数目是,(128MB/1KB),(128MB/1KB) = 2,34,个,Region,4.4.3Region,的定位,客户端访问数据时的“三级寻址”,为了加速寻址,客户端会缓存位置信息,同时,需要解决缓存失效问题,寻址过程客户端只需要询问,Zookeeper,服务器,不需要连接,Master,服务器,4.5HBase,运行机制,4.5.1HBase,系统架构,4.5.2Region,服务器工作原理,4.5.3Store,工作原理,4.5.4HLog,工作原理,4.5.1HBase,系统架构,HBase,的系统架构,4.5.1HBase,系统架构,1.,客户端,客户端包含访问,HBase,的接口,同时在缓存中维护着已经访问过的,Region,位置信息,用来加快后续数据访问过程,2. Zookeeper,服务器,Zookeeper,可以帮助选举出一个,Master,作为集群的总管,并保证在任何时刻总有唯一一个,Master,在运行,这就避免了,Master,的“单点失效”问题,Zookeeper,是一个很好的集群管理工具,被大量用于分布式计算,提供配置维护、域名服务、分布式同步、组服务等。,4.5.1HBase,系统架构,3. Master,主服务器,Master,主要负责表和,Region,的管理工作:,管理用户对表的增加、删除、修改、查询等操作,实现不同,Region,服务器之间的负载均衡,在,Region,分裂或合并后,负责重新调整,Region,的分布,对发生故障失效的,Region,服务器上的,Region,进行迁移,4. Region,服务器,Region,服务器是,HBase,中最核心的模块,负责维护分配给自己的,Region,,并响应用户的读写请求,4.5.2Region,服务器工作原理,Region服务器向HDFS文件系统中读写数据,1.,用户读写数据过程,2.,缓存的刷新,3. StoreFile,的合并,4.5.2Region,服务器工作原理,1.,用户读写数据过程,用户写入数据时,被分配到相应,Region,服务器去执行,用户数据首先被写入到,MemStore,和,Hlog,中,只有当操作写入,Hlog,之后,,commit(),调用才会将其返回给客户端,当用户读取数据时,,Region,服务器会首先访问,MemStore,缓存,如果找不到,再去磁盘上面的,StoreFile,中寻找,4.5.2Region,服务器工作原理,2.,缓存的刷新,系统会周期性地把,MemStore,缓存里的内容刷写到磁盘的,StoreFile,文件中,清空缓存,并在,Hlog,里面写入一个标记,每次刷写都生成一个新的,StoreFile,文件,因此,每个,Store,包含多个,StoreFile,文件,每个,Region,服务器都有一个自己的,HLog,文件,每次启动都检查该文件,确认最近一次执行缓存刷新操作之后是否发生新的写入操作;如果发现更新,则先写入,MemStore,,再刷写到,StoreFile,,最后删除旧的,Hlog,文件,开始为用户提供服务,4.5.2Region,服务器工作原理,3. StoreFile,的合并,每次刷写都生成一个新的,StoreFile,,数量太多,影响查找速度,调用,Spact,(),把多个合并成一个,合并操作比较耗费资源,只有数量达到一个阈值才启动合并,4.5.3Store,工作原理,StoreFile的合并和分裂过程,Store,是,Region,服务器的核心,多个,StoreFile,合并成一个,单个,StoreFile,过大时,又触发分裂操作,,1,个父,Region,被分裂成两个子,Region,4.5.4HLog,工作原理,分布式环境必须要考虑系统出错。,HBase,采用,HLog,保证系统恢复,HBase,系统为每个,Region,服务器配置了一个,HLog,文件,它是一种预写式日志(,Write Ahead Log,),用户更新数据必须首先写入日志后,才能写入,MemStore,缓存,并且,直到,MemStore,缓存内容对应的日志已经写入磁盘,该缓存内容才能被刷写到磁盘,4.5.4HLog,工作原理,Zookeeper,会实时监测每个,Region,服务器的状态,当某个,Region,服务器发生故障时,,Zookeeper,会通知,Master,Master,首先会处理该故障,Region,服务器上面遗留的,HLog,文件,这个遗留的,HLog,文件中包含了来自多个,Region,对象的日志记录,系统会根据每条日志记录所属的,Region,对象对,HLog,数据进行拆分,分别放到相应,Region,对象的目录下,然后,再将失效的,Region,重新分配到可用的,Region,服务器中,并把与该,Region,对象相关的,HLog,日志记录也发送给相应的,Region,服务器,Region,服务器领取到分配给自己的,Region,对象以及与之相关的,HLog,日志记录以后,会重新做一遍日志记录中的各种操作,把日志记录中的数据写入到,MemStore,缓存中,然后,刷新到磁盘的,StoreFile,文件中,完成数据恢复,共用日志优点:提高对表的写操作性能;缺点:恢复时需要分拆日志,复 习,4.1,概述,4.2HBase,访问接口,4.3HBase,数据模型,4.4HBase,的实现原理,4.5HBase,运行机制,HBase,逻辑模型,以表的形式存放数据,HBase,物理模型,HBase,是按照列存储的稀疏行,/,列矩阵,Hbase,物理模型,4.6,HBase,访问方式,Native Java API,最常规和高效的访问方式,HBase,Shell,HBase,的命令行工具,最简单的接口,适合,HBase,管理使用;,Thrift Gateway,利用,Thrift,序列化技术,支持,C+,,,PHP,,,Python,等多种语言,适合其他异构系统在线访问,HBase,表数据,REST Gateway,支持,REST,风格的,Http API,访问,HBase,解除了语言限制,MapReduce,直接使用,MapReduce,作业处理,Hbase,数据,使用,Pig/hive,处理,Hbase,数据,HBase Java API,概述,Hbase,是用,Java,语言编写的,支持,Java,编程是自然而然的事情,支持,CRUD,操作:,Create, Read, Update, Delete,Java API,包含,Hbase,shell,支持的所有功能,甚至更多,Java API,是访问,Hbase,最快的方式,Java API,程序设计步骤,步骤,1,:创建一个,Configuration,对象,包含各种配置信息,例如:,Configuration conf =,HbaseConfiguration.create,();,步骤,2,:构建一个,HTable,句柄,提供,Configuration,对象,提供待访问,Table,的名称,例如:,HTable,table = new,HTable(conf,tableName,);,步骤,3,:执行相应的操作,执行,put,、,get,、,delete,、,scan,等操作,例如:,table.getTableName,();,步骤,4,:关闭,HTable,句柄,将内存数据刷新到磁盘上,释放各种资源,例如:,table.close,();,程序示例,框架程序,4.7 HBase,应用方案,4.7.1 HBase,实际应用中的性能优化方法,4.7.2 HBase,性能监视,4.7.3,在,HBase,之上构建,SQL,引擎,4.7.4,构建,HBase,二级索引,4.7.1,HBase,实际应用中的性能优化方法,行键(,Row Key,),行键是按照字典序存储,因此,设计行键时,要充分利用这个排序特点,将经常一起读取的数据存储到一块,将最近可能会被访问的数据放在一块。,例子:如果最近写入,HBase,表中的数据是最可能被访问的,可以考虑将时间戳作为行键的一部分,由于是字典序排序,所以可以使用,Long.MAX_VALUE,- timestamp,作为行键,这样能保证新写入的数据在读取时可以被快速命中。,4.7.1,HBase,实际应用中的性能优化方法,创建表的时候,可以通过,HColumnDescriptor.setInMemory(true,),将表放到,Region,服务器的缓存中,保证在读取的时候被,cache,命中。,InMemory,Max Version,创建表的时候,可通过,HColumnDescriptor.setMaxVersions(int,maxVersions,),设置表中数据的最大版本,如果只需要保存最新版本的数据,那么可以设置,setMaxVersions(1),。,Time To Live,创建表的时候,可以通过,HColumnDescriptor.setTimeToLive(int,timeToLive,),设置表中数据的存储生命期,过期数据将自动被删除,例如如果只需要存储最近两天的数据,那么可以设置,setTimeToLive(2 * 24 * 60 *,60,),。,4.7.2 HBase,性能监视,Master-status(,自带,),Ganglia,OpenTSDB,Ambari,Master-status,HBase,Master,默认基于,Web,的,UI,服务端口为,60010,,,HBase,region,服务器默认基于,Web,的,UI,服务端口为,60030.,如果,master,运行在名为,的主机中,,mater,的主页地址就是,:60010,,用户可以通过,Web,浏览器输入这个地址查看该页面,.,可以查看,HBase,集群的当前状态,.,Ganglia,Ganglia,是,UC Berkeley,发起的一个开源集群监视项目,用于监控系统性能,OpenTSDB,OpenTSDB,可以从大规模的集群(包括集群中的网络设备、操作系统、应用程序)中获取相应的,metrics,并进行存储、索引以及服务,从而使得这些数据更容易让人理解,如,web,化,图形化等,Ambari,Ambari,的作用就是创建、管理、监视,Hadoop,的集群,4.7.3,在,HBase,之上构建,SQL,引擎,NoSQL,区别于关系型数据库的一点就是,NoSQL,不使用,SQL,作为查询语言,至于为何在,NoSQL,数据存储,HBase,上提供,SQL,接口,有如下原因:,1.,易使用。使用诸如,SQL,这样易于理解的语言,使人们能够更加轻松地使用,HBase,。,2.,减少编码。使用诸如,SQL,这样更高层次的语言来编写,减少了编写的代码量。,方案:,1.Hive,整合,HBase,2.Phoenix,4.7.3,在,HBase,之上构建,SQL,引擎,1.Hive,整合,HBase,Hive,与,HBase,的整合功能从版本已经开始出现,利用两者对外的,API,接口互相通信,通信主要依靠,hive_hbase-handler.jar,工具包,(Hive Storage Handlers),。由于,HBase,有一次比较大的版本变动,所以并不是每个版本的,Hive,都能和现有的,HBase,版本进行整合,所以在使用过程中特别注意的就是两者版本的一致性。,2.Phoenix,Phoenix,由,S,开源,是构建在,Apache HBase,之上的一个,SQL,中间层,可以让开发者在,HBase,上执行,SQL,查询。,4.7.4,构建,HBase,二级索引,HBase,只有一个针对行健的索引,访问,HBase,表中的行,只有三种方式:,通过单个行健访问,通过一个行健的区间来访问,全表扫描,使用其他产品为,HBase,行健提供索引功能:,Hindex,二级索引,HBase+Redis,HBase+solr,4.7.4,构建,HBase,二级索引,Coprocessor,提供了两个实现:,endpoint,和,observer,,,endpoint,相当于关系型数据库的存储过程,而,observer,则相当于触发器,.observer,允许我们在记录,put,前后做一些处理,因此,而我们可以在插入数据时同步写入索引表,.,Coprocessor,构建二级索引,缺点:每插入一条数据需要向索引表插入数据,即耗时是双倍的,对,HBase,的集群的压力也是双倍的,优点:,非侵入性:引擎构建在,HBase,之上,既没有对,HBase,进行任何改动,也不需要上层应用做任何妥协,Hindex,二级索引,Hindex,是华为公司开发的纯,Java,编写的,HBase,二级索引,兼容,Apache HBase,。当前特性:,多个表索引,多个列索引,基于部分列值的索引,HBase+Redis,Redis+HBase,方案,Coprocessor,构建二级索引,Redis,做客户端缓存,将索引实时更新到,Redis,等,KV,系统中,定时从,KV,更新索引到,HBase,的索引表中,Solr+HBase,Solr,是一个高性能,采用,Java5,开发,基于,Lucene,的全文搜索服务器。同时对其进行了扩展,提供了比,Lucene,更为丰富的查询语言,同时实现了可配置、可扩展并对查询性能进行了优化,并且提供了一个完善的功能管理界面,是一款非常优秀的全文搜索引擎。,Solr+HBase,Solr,保存索引,根据,RowKey,查询,4.8 HBase,编程实践,4.8.1 HBase,的安装与配置,4.8.2HBase,常用,Shell,命令,4.8.3HBase,常用,Java API,及应用实例,4.8.1 HBase,的安装与配置,1. HBase,安装,下载安装包,解压安装包,至路径,/,usr,/local,配置系统环境,将,hbase,下的,bin,目录添加到系统的,path,中,2. HBase,配置,HBase,有三种运行模式,单机模式、伪分布式模式、分布式模式。以下先决条件很重要,比如没有配置,JAVA_HOME,环境变量,就会报错。, JDK, Hadoop(,单机模式不需要,伪分布式模式和分布式模式需要,), SSH,备注:安装完,Hadoop,时,只包含,HDFS,和,MapReduce,等核心组件,并不包含,HBase,,因此,,HBase,需要单独安装,启动关闭,Hadoop,和,HBase,的顺序一定是:,启动,Hadoop,启动,HBase,关闭,HBase,关闭,Hadoop,HBASE_MANAGES_ZK=true,,由,HBase,管理,Zookeeper,否则启动独立的,Zookeeper.,建议:单机版,HBase,,使用自带,Zookeeper,;集群安装,HBase,则采用单独,Zookeeper,集群,4.,8,.2,HBase常用Shell命令,Shell,命令帮助,查询数据库状态,hbase(main):024:0status,3 servers, 0 dead,1.0000 average load,查询数据库版本,hbase(main):025:0version,0.90.4, r1150278,Sun Jul 24 15:53:29 PDT 2011,4.,8,.2,HBase常用Shell命令,4.,8,.2,HBase常用Shell命令,create,:创建表,list,:列出,HBase,中所有的表信息,例子,1,:创建一个表,该表名称为,tempTable,,包含,3,个列族,f1,,,f2,和,f3,(,1,)利用命令,create,创建表,tempTable,,表中有,f1,,,f2,,,f3,三个列族,(,2,)利用,list,列出,Hbase,中所有的表信息,4.,8,.2HBase常用Shell命令,put,:向表、行、列指定的单元格添加数据,一次只能为一个表的一行数据的一个列添加一个数据,scan,:浏览表的相关信息,例子,2,:继续向表,tempTable,中的第,r1,行、第“,f1:c1,”列,添加数据值为“,hello,dblab,”,(,1,)利用,put,命令向表,tempTalble,,行,r1,,列,f1:c1,中插入数据,(,2,)利用,scan,命令浏览表,tempTable,的相关信息,在添加数据时,,HBase,会自动为添加的数据添加一个时间戳,当然,也可以在添加数据时人工指定时间戳的值,.,4.,8,.2HBase常用Shell命令,get,:通过表名、行、列、时间戳、时间范围和版本号来获得相应单元格的值,例子,3,:,(,1,)从,tempTable,中,获取第,r1,行、第“,f1:c1,”列的值,(,2,)从,tempTable,中,获取第,r1,行、第“,f1:c3,”列的值,备注:,f1,是列族,,c1,和,c3,都是列,从运行结果可以看出:,tempTable,中第,r1,行、第“,f1:c3,”列的值当前不存在,4.,8,.2HBase常用Shell命令,enable/disable,:使表有效或无效,drop,:删除表,例子,4,:使表,tempTable,无效、删除该表,(,1,)利用,disable,命令使表,tempTable,无效,(,2,)利用,drop,命令删除表,tempTable,(,3,)利用,list,命令展示删除表,tempTable,后的效果,4.,8,.3HBase常用Java API及应用实例,HBase,是,Java,编写的,它的原生的,API,也是,Java,开发的,不过,可以使用,Java,或其他语言调用,API,来访问,HBase:,首先要在工程中导入一下,jar,包:这里只需要导入,hbase,安装目录中的,lib,文件中的所有,jar,包,此处不用再导入,Hadoop,中的,jar,包,避免由于,Hadoop,和,HBase,的版本冲突引起错误。,4.,8,.3HBase常用Java API及应用实例,name,score,English,Math,Computer,学生信息表的表结构,任务要求:创建表、插入数据、浏览数据,创建一个学生信息表,用来存储学生姓名(姓名作为行键,并且假设姓名不会重复)以及考试成绩,其中,考试成绩是一个列族,分别存储了各个科目的考试成绩。逻辑视图如表所示。,name,score,English,Math,Computer,zhangsan,69,86,77,lisi,55,100,88,需要添加的数据,import ;import .*;import .*;import ;import ;public class Chapter4 public static Configuration,configuration,; public static Connection,connection,; public static Admin,admin,; public static void main(String args)throws IOException createTable(“student”,new String“score”);,insertData,(“student”,“zhangsan”,“score”,“English”,“69”);,insertData,(“student”,“zhangsan”,“score”,“Math”,“86”);,insertData,(“student”,“zhangsan”,“score”,“Computer”,“77”);,getData,(“student”, “zhangsan”, “score”, “English”); ,public static void init()/,建立连接,public static void close()/,关闭连接,public static void createTable()/,创建表,public static void insertData() /,插入数据,public static void getData/,浏览数据,4.,8,.3HBase常用Java API及应用实例,建立连接,关闭连接,/,建立连接,public static void init() configuration = HBaseConfiguration.create(); configuration.set(hbase.rootdir,hdfs:/localhost:9000/hbase); try connection = ConnectionFactory.createConnection(configuration); admin = connection.getAdmin(); catch (IOException e) e.printStackTrace(); ,hbase-site.xml,hbase.rootdirhdfs:/localhost:9000/hbase,备注:,(单机版),file:/DIRECTORY/hbase,4.,8,.3HBase常用Java API及应用实例,/,关闭连接,public static void close() try if(admin != null) admin.close(); if(null != connection) connection.close(); catch (IOException e) e.printStackTrace(); ,建立连接,关闭连接,/*,创建表*,/,/*,* param myTableName,表名,*,param colFamily,列族数组,*,throws Exception,*/,public static void createTable(String myTableName,String colFamily) throws IOException ,TableName tableName = TableName.valueOf(myTableName);,if(admin.tableExists(tableName),System.out.println(table exists!);,else ,HTableDescriptor hTableDescriptor = new HTableDescriptor(tableName);,for(String str: colFamily),HColumnDescriptor hColumnDescriptor = new HColumnDescriptor(str);,hTableDescriptor.addFamily(hColumnDescriptor);,admin.createTable(hTableDescriptor);,在运行程序时,需要指定参数,myTableName,为“,student,”,,colFamily,为“,“score”,”,程序的运行效果与如下,HBase Shell,命令等效:,create student, score,name,score,English,Math,Comp
展开阅读全文