1、1会计学分布式数据库分布式数据库4.1概述4.2HBase访问接口4.3HBase数据模型4.4HBase的实现原理4.5HBase运行机制4.6 HBase应用方案4.7 HBase编程实践 数据存储在“云”中 数据访问不受地理位置限制 数据能够很方便的共享Google云计算技术具体包括:Google文件系统海量数据分布存储技术(GFS)、分布式计算编程模型MapReduce、分布式锁服务Chubby分布式结构化数据存储系统Bigtable等。主流解决方案Google云计算是否可以在一堆廉价且不可靠的硬件上构建可靠的分布式文件系统?78一个适用于大规模分布式数据处理相关应用的,可扩展的分布式
2、文件系统。它基于普通的不算昂贵的硬件设备,实现了容错的设计,并且为大量客户端提供极高的聚合处理性能。GFS910GFS将容错的任务交给文件系统完成,利用软件的方法解决系统可靠性问题,使存储的成本成倍下降。GFS将服务器故障视为正常现象,并采用多种方法,从多个角度,使用不同的容错措施,确保数据存储的安全、保证提供不间断的数据存储服务。GFS架构是怎样的?Client(客户端):应用程序的访问接口 Master(主服务器):管理节点,在逻辑上只有一个,保存系统的元数据,负责整个文件系统的管理 Chunk Server(数据块服务器):负责具体的存储工作。数据以文件的形式存储在Chunk Serve
3、r上 控制流状态流IO并行需要存储的数据种类繁多:Google目前向公众开放的服务很多,需要处理的数据类型也非常多。包括URL、网页内容、用户的个性化设置在内的数据都是Google需要经常处理的 海量的服务请求:Google运行着目前世界上最繁忙的系统,它每时每刻处理的客户服务请求数量是普通的系统根本无法承受的 商用数据库无法满足Google的需求:一方面现有商用数据库设计着眼点在于通用性,根本无法满足Google的苛刻服务要求;另一方面对于底层系统的完全掌控会给后期的系统维护、升级带来极大的便利 设计动机分布式结构化数据表Bigtable 基本目标高可用性 Bigtable设计的重要目标之一
4、就是确保几乎所有的情况下系统都可用 广泛的适用性 Bigtable是为了满足系列Google产品而非特定产品存储要求 简单性 底层系统简单性既可减少系统出错概率,也为上层应用开发带来便利 很强的可扩展性 根据需要随时可以加入或撤销服务器 BigTable为谷歌旗下的搜索、地图、财经、打印、以及社交网站Orkut、视频共享网站YouTube和博客网站Blogger等业务提供技术支持。BigTable是一个分布式存储系统,起初用于解决典型的互联网搜索问题,利用谷歌提出的MapReduce分布式并行计算模型来处理海量数据,使用GFS作为底层数据存储,采用Chubby提供协同服务管理,可以扩展到PB级
5、别的数据和上千台机器,具备广泛应用性、可扩展性、高性能和高可用性等特点。建立互联网索引1 爬虫持续不断地抓取新页面,这些页面每页一行地存储到BigTable里2 MapReduce计算作业运行在整张表上,生成索引,为网络搜索应用做准备搜索互联网3 用户发起网络搜索请求4 网络搜索应用查询建立好的索引,从BigTable得到网页5 搜索结果提交给用户Bigtable是一个分布式多维映射表,表中的数据通过一个行关键字(Row Key)、一个列关键字(Column Key)以及一个时间戳(Time Stamp)进行索引 Bigtable对存储在其中的数据不做任何解析,一律看做字符串Bigtable的
6、存储逻辑可以表示为:(row:string,column:string,time:int64)string行 Bigtable的行关键字可以是任意的字符串,但是大小不能超过64KB。Bigtable和传统的关系型数据库有很大不同,它不支持一般意义上的事务,但能保证对于行的读写操作具有原子性(Atomic)表中数据都是根据行关键字进行排序的,排序使用的是词典序。一个典型实例,其中就是一个行关键字。不直接存储网页地址而将其倒排是Bigtable的一个巧妙设计。带来两个好处:同一地址域的网页会被存储在表中的连续位置,有利于用户查找和分析 倒排便于数据压缩,可以大幅提高压缩率 “内容:”“锚点:”“锚
7、点:my.look.ca”“n.www”“”“”“”“CNN.com”“CNN”t3 t5 t6 t8 t9 由于规模的问题,单个的大表不利于数据处理,因此Bigtable将一个表分成了多个子表,每个子表包含多个行。子表是Bigtable中数据划分和负载均衡的基本单位。列 Bigtable并不是简单地存储所有的列关键字,而是将其组织成所谓的列族每个族中的数据都属于同一个类型,并且同族的数据会被压缩在一起保存。引入了列族的概念之后,列关键字就采用下述的语法规则来定义:族名:限定词(family:qualifier)族名必须有意义,限定词则可以任意选定 图中,内容、锚点都是不同的族。而和则是锚点族
8、中不同的限定词 族同时也是Bigtable中访问控制(Access Control)基本单元,也就是说访问权限的设置是在族这一级别上进行的“内容:”“锚点:”“锚点:my.look.ca”“n.www”“”“”“”“CNN.com”“CNN”t3 t5 t6 t8 t9 时间戳 l 为了简化不同版本的数据管理,Bigtable目前提供了两种设置:l一种是保留最近的N个不同版本,图中数据模型采取的就是这种方法,它保存最新的三个版本数据。l另一种就是保留限定时间内的所有不同版本,比如可以保存最近10天的所有不同版本数据。失效的版本将会由Bigtable的垃圾回收机制自动处理 Google的很多服务
9、比如网页检索和用户的个性化设置等都需要保存不同时间的数据,这些不同的数据版本必须通过时间戳来区分。一个分布式的任务调度器,主要被用来处理分布式系统队列分组和任务调度 Bigtable数据库的架构,由主服务器和分服务器构成,把数据库看成是一张大表,那么可将其划分为许多基本的小表,这些小表就称为tablet,是bigtable中最小的处理单位了。主服务器负责将Tablet分配到Tablet服务器、检测新增和过期的Tablet服务器、平衡Tablet服务器之间的负载、GFS垃圾文件的回收、数据模式的改变(例如创建表)等。Tablet服务器负责处理数据的读写,并在Tablet规模过大时进行拆分。Big
10、table使用集群管理系统来调度任务、管理资源、监测服务器状态并处理服务器故障。BigTable将数据存储分为两部分:最近的更新存储在内存中,较老的更新则以SSTable的格式存储在GFS,后者是主体部分,不可变的数据结构。写操作的内容插入到memtable中,当memtable的大小达到一个阈值时就冻结,然后创建一个新的memtable,旧的就转换成一个SSTable写入GFS。使用分布式的锁服务Chubby来保证集群中主服务器的唯一性、保存Bigtable数据的引导区位置、发现Tablet服务器并处理Tablet服务器的失效、保存Bigtable的数据模式信息、保存存取控制列表。系统架构
11、在Bigtable中Chubby主要有以下几个作用:1.选取并保证同一时间内只有一个主服务器(Master Server)2.获取子表的位置信息3.保存Bigtable的模式信息及访问控制列表 另外在Bigtable的实际执行过程中,Google的MapReduce等技术也被用来改善其性能系统架构 Bigtable主要由三个部分组成:客户端程序库(Client Library),一个主服务器(Master Server)和多个子表服务器(Tablet Server)客户访问Bigtable服务时,首先要利用其库函数执行Open()操作来打开一个锁(实际上就是获取了文件目录),锁打开以后客户端就
12、可以和子表服务器进行通信 和许多具有单个主节点分布式系统一样,客户端主要与子表服务器通信,几乎不和主服务器进行通信,这使得主服务器的负载大大降低 主服务主要进行一些元数据操作以及子表服务器之间负载调度问题,实际数据是存储在子表服务器上 HBase是一个高可靠、高性能、面向列、可伸缩的分布式数据库,是谷歌BigTable的开源实现,主要用来存储非结构化和半结构化的松散数据。HBase的目标是处理非常庞大的表,可以通过水平扩展的方式,利用廉价计算机集群处理由超过10亿行数据和数百万列元素组成的数据表 Hadoop生态系统中HBase与其他部分的关系 HBase和BigTable的底层技术对应关系B
13、igTableHBase文件存储系统文件存储系统GFSHDFS海量数据处理海量数据处理MapReduceHadoop MapReduce协同服务管理协同服务管理ChubbyZookeeper关系数据库已经流行很多年,并且Hadoop已经有了HDFS和MapReduce,为什么需要HBase?Hadoop可以很好地解决大规模数据的离线批量处理问题,但受限于Hadoop MapReduce编程框架的高延迟数据处理机制,无法满足大规模数据实时处理应用的需求HDFS面向批量访问模式,不是随机访问模式传统的通用关系型数据库无法应对在数据规模剧增时导致的系统扩展性和性能问题(分库分表也不能很好解决)传统关
14、系数据库在数据结构变化时一般需要停机维护;空列浪费存储空间因此,出现了一类面向半结构化数据存储和处理的高可扩展、低写入/查询延迟的系统,例如,键值数据库、文档数据库和列族数据库(如BigTable和HBase等)。HBase已经成功应用于互联网服务领域和传统行业的众多在线式数据分析处理系统中。HBase访问接口类型类型特点特点场合场合Native Java API最常规和高效的访问方式最常规和高效的访问方式适合适合Hadoop MapReduce作业作业并行批处理并行批处理HBase表数据表数据HBase ShellHBase的命令行工具,最的命令行工具,最简单的接口简单的接口适合适合HBas
15、e管理使用管理使用Thrift Gateway利用利用Thrift序列化技术,序列化技术,支持支持C+、PHP、Python等多种语言等多种语言适合其他异构系统在线访问适合其他异构系统在线访问HBase表数据表数据REST Gateway解除了语言限制解除了语言限制支持支持REST风格的风格的Http API访访问问HBasePig使用使用Pig Latin流式编程语流式编程语言来处理言来处理HBase中的数据中的数据适合做数据统计适合做数据统计Hive简单简单当需要以类似当需要以类似SQL语言方式来语言方式来访问访问HBase的时候的时候键值“201505003”,“Info”,“email
16、”,1174184619081“”“201505003”,“Info”,“email”,1174184620720“”HBase数据的概念视图行键行键时时间间戳戳列族列族contents列族列族n.wwwt5anchor:=”CNN”t4anchor:my.look.ca=CNN.comt3contents:html=.t2contents:html=.t1contents:html=.HBase数据的物理视图:基于列的存储列族contents行键行键时间时间戳戳列族列族n.wwwt3contents:html=.t2contents:html=.t1contents:html=.列族anch
17、or行键行键时间时间戳戳列族列族n.wwwt5anchor:=”CNN”t4anchor:my.look.ca=CNN.com 行式数据库和列式数据库示意图 行式存储结构和列式存储结构 一个HBase表被划分成多个Region 一个Region会分裂成多个新的Region开始只有一个Region,后来不断分裂Region拆分操作非常快,接近瞬间,因为拆分之后的Region读取的仍然是原存储文件,直到“合并”过程把存储文件异步地写到独立的文件之后,才会读取新文件图4-7 不同的Region可以分布在不同的Region服务器上每个Region默认大小是100MB到200MB(2006年以前的硬件配
18、置)每个Region的最佳大小取决于单台服务器的有效处理能力目前每个Region最佳大小建议1GB-2GB(2013年以后的硬件配置)同一个Region不会被分拆到多个Region服务器每个Region服务器存储10-1000个Region HBase的三层结构元数据表,又名.META.表,存储了Region和Region服务器的映射关系 当HBase表很大时,.META.表也会被分裂成多个Region根数据表,又名-ROOT-表,记录所有元数据的具体位置 -ROOT-表只有唯一一个Region,名字是在程序中被写死的 Zookeeper文件记录了-ROOT-表的位置 HBase的三层结构中各
19、层次的名称和作用层次层次名称名称作用作用第一层第一层Zookeeper文件文件 记录了记录了-ROOT-表的位置信息表的位置信息第二层第二层-ROOT-表表记录了记录了.META.表的表的Region位置信息位置信息-ROOT-表只能有一个表只能有一个Region。通过。通过-ROOT-表表,就可以访问,就可以访问.META.表中的数据表中的数据第三层第三层.META.表表记录了用户数据表的记录了用户数据表的Region位置信息,位置信息,.META.表可以有多个表可以有多个Region,保存了,保存了HBase中所有用中所有用户数据表的户数据表的Region位置信息位置信息 为了加快访问速度
20、,.META.表的全部Region都会被保存在内存中。假设.META.表的每行(一个映射条目)在内存中大约占用1KB,并且每个Region限制为128MB,那么,上面的三层结构可以保存的用户数据表的Region数目的计算方法是:(-ROOT-表能够寻址的.META.表的Region个数)(每个.META.表的 Region可以寻址的用户数据表的Region个数)一个-ROOT-表最多只能有一个Region,也就是最多只能有128MB,按照每行(一个映射条目)占用1KB内存计算,128MB空间可以容纳128MB/1KB=217行,也就是说,一个-ROOT-表可以寻址217个.META.表的Reg
21、ion。同理,每个.META.表的 Region可以寻址的用户数据表的Region个数是128MB/1KB=217。最终,三层结构可以保存的Region数目是(128MB/1KB)(128MB/1KB)=234个Region客户端访问数据时的“三级寻址”为了加速寻址,客户端会缓存位置信息,同时,需要解决缓存失效问题寻址过程客户端只需要询问Zookeeper服务器,不需要连接Master服务器 HBase的系统架构Zookeeper是一个很好的集群管理工具,被大量用于分布式计算,提供配置维护、域名服务、分布式同步、组服务等。3.Master主服务器Master主要负责表和Region的管理工作:
22、管理用户对表的增加、删除、修改、查询等操作 实现不同Region服务器之间的负载均衡 在Region分裂或合并后,负责重新调整Region的分布 对发生故障失效的Region服务器上的Region进行迁移4.Region服务器 Region服务器是HBase中最核心的模块,负责维护分配给自己的Region,并响应用户的读写请求Region服务器向HDFS文件系统中读写数据 1.用户读写数据过程 2.缓存的刷新3.StoreFile的合并1.用户读写数据过程 用户写入数据时,被分配到相应Region服务器去执行用户数据首先被写入到MemStore和Hlog中只有当操作写入Hlog之后,commi
23、t()调用才会将其返回给客户端当用户读取数据时,Region服务器会首先访问MemStore缓存,如果找不到,再去磁盘上面的StoreFile中寻找2.缓存的刷新系统会周期性地把MemStore缓存里的内容刷写到磁盘的StoreFile文件中,清空缓存,并在Hlog里面写入一个标记每次刷写都生成一个新的StoreFile文件,因此,每个Store包含多个StoreFile文件每个Region服务器都有一个自己的HLog 文件,每次启动都检查该文件,确认最近一次执行缓存刷新操作之后是否发生新的写入操作;如果发现更新,则先写入MemStore,再刷写到StoreFile,最后删除旧的Hlog文件,
24、开始为用户提供服务3.StoreFile的合并每次刷写都生成一个新的StoreFile,数量太多,影响查找速度调用Spact()把多个合并成一个合并操作比较耗费资源,只有数量达到一个阈值才启动合并 StoreFile的合并和分裂过程 Store是Region服务器的核心多个StoreFile合并成一个单个StoreFile过大时,又触发分裂操作,1个父Region被分裂成两个子RegionZookeeper会实时监测每个Region服务器的状态,当某个Region服务器发生故障时,Zookeeper会通知MasterMaster首先会处理该故障Region服务器上面遗留的HLog文件,这个遗留
25、的HLog文件中包含了来自多个Region对象的日志记录系统会根据每条日志记录所属的Region对象对HLog数据进行拆分,分别放到相应Region对象的目录下,然后,再将失效的Region重新分配到可用的Region服务器中,并把与该Region对象相关的HLog日志记录也发送给相应的Region服务器Region服务器领取到分配给自己的Region对象以及与之相关的HLog日志记录以后,会重新做一遍日志记录中的各种操作,把日志记录中的数据写入到MemStore缓存中,然后,刷新到磁盘的StoreFile文件中,完成数据恢复共用日志优点:提高对表的写操作性能;缺点:恢复时需要分拆日志HBas
26、e逻辑模型q 以表的形式存放数据HBase物理模型q HBase是按照列存储的稀疏行/列矩阵Hbase物理模型4.6 HBase访问方式q Native Java API 最常规和高效的访问方式q HBase Shell HBase的命令行工具,最简单的接口,适合HBase管理使用;q Thrift Gateway 利用Thrift序列化技术,支持C+,PHP,Python等多种语言,适合其他异构系统在线访问HBase表数据q REST Gateway 支持REST 风格的Http API访问HBase,解除了语言限制q MapReduce 直接使用MapReduce作业处理Hbase数据 使
27、用Pig/hive处理Hbase数据HBase Java API概述q Hbase是用Java语言编写的,支持Java编程是自然而然的事情q 支持CRUD操作:Create,Read,Update,Deleteq Java API包含Hbase shell支持的所有功能,甚至更多q Java API是访问Hbase最快的方式Java API程序设计步骤q 步骤1:创建一个Configuration对象 包含各种配置信息 例如:Configuration conf=HbaseConfiguration.create();q 步骤2:构建一个HTable句柄 提供Configuration对象 提
28、供待访问Table的名称 例如:HTable table=new HTable(conf,tableName);q 步骤3:执行相应的操作 执行put、get、delete、scan等操作 例如:table.getTableName();q 步骤4:关闭HTable句柄 将内存数据刷新到磁盘上 释放各种资源 例如:table.close();程序示例q 框架程序实际应用中的性能优化方法性能监视在HBase之上构建SQL引擎构建HBase二级索引行键(Row Key)行键是按照字典序存储,因此,设计行键时,要充分利用这个排序特点,将经常一起读取的数据存储到一块,将最近可能会被访问的数据放在一块。
29、例子:如果最近写入HBase表中的数据是最可能被访问的,可以考虑将时间戳作为行键的一部分,由于是字典序排序,所以可以使用Long.MAX_VALUE-timestamp作为行键,这样能保证新写入的数据在读取时可以被快速命中。创建表的时候,可以通过HColumnDescriptor.setInMemory(true)将表放到Region服务器的缓存中,保证在读取的时候被cache命中。InMemoryMax Version创建表的时候,可通过HColumnDescriptor.setMaxVersions(int maxVersions)设置表中数据的最大版本,如果只需要保存最新版本的数据,那么
30、可以设置setMaxVersions(1)。Time To Live创建表的时候,可以通过HColumnDescriptor.setTimeToLive(int timeToLive)设置表中数据的存储生命期,过期数据将自动被删除,例如如果只需要存储最近两天的数据,那么可以设置setTimeToLive(2*24*60*60)。Master-status(自带)GangliaOpenTSDBAmbariHBase Master默认基于Web的UI服务端口为60010,HBase region服务器默认基于Web的UI服务端口为60030.如果master运行在名为的主机中,mater的主页地址
31、就是,用户可以通过Web浏览器输入这个地址查看该页面.可以查看HBase集群的当前状态.Ganglia是UC Berkeley发起的一个开源集群监视项目,用于监控系统性能OpenTSDB可以从大规模的集群(包括集群中的网络设备、操作系统、应用程序)中获取相应的metrics并进行存储、索引以及服务,从而使得这些数据更容易让人理解,如web化,图形化等Ambari 的作用就是创建、管理、监视 Hadoop 的集群NoSQL区别于关系型数据库的一点就是NoSQL不使用SQL作为查询语言,至于为何在NoSQL数据存储HBase上提供SQL接口,有如下原因:1.易使用。使用诸如SQL这样易于理解的语言
32、,使人们能够更加轻松地使用HBase。2.减少编码。使用诸如SQL这样更高层次的语言来编写,减少了编写的代码量。方案:1.Hive整合HBase2.Phoenix 1.Hive整合HBaseHive与HBase的整合功能从版本已经开始出现,利用两者对外的API接口互相通信,通信主要依靠hive_hbase-handler.jar工具包(Hive Storage Handlers)。由于HBase有一次比较大的版本变动,所以并不是每个版本的Hive都能和现有的HBase版本进行整合,所以在使用过程中特别注意的就是两者版本的一致性。2.PhoenixPhoenix由S开源,是构建在Apache H
33、Base之上的一个SQL中间层,可以让开发者在HBase上执行SQL查询。HBase只有一个针对行健的索引访问HBase表中的行,只有三种方式:通过单个行健访问通过一个行健的区间来访问全表扫描使用其他产品为HBase行健提供索引功能:Hindex二级索引HBase+RedisHBase+solrCoprocessor提供了两个实现:endpoint和observer,endpoint相当于关系型数据库的存储过程,而observer则相当于触发器.observer允许我们在记录put前后做一些处理,因此,而我们可以在插入数据时同步写入索引表.Coprocessor构建二级索引缺点:每插入一条数据
34、需要向索引表插入数据,即耗时是双倍的,对HBase的集群的压力也是双倍的优点:非侵入性:引擎构建在HBase之上,既没有对HBase进行任何改动,也不需要上层应用做任何妥协Hindex 是华为公司开发的纯 Java 编写的HBase二级索引,兼容。当前特性:多个表索引多个列索引基于部分列值的索引Redis+HBase方案Coprocessor构建二级索引Redis做客户端缓存将索引实时更新到Redis等KV系统中,定时从KV更新索引到HBase的索引表中Solr是一个高性能,采用Java5开发,基于Lucene的全文搜索服务器。同时对其进行了扩展,提供了比Lucene更为丰富的查询语言,同时实
35、现了可配置、可扩展并对查询性能进行了优化,并且提供了一个完善的功能管理界面,是一款非常优秀的全文搜索引擎。Solr+HBaseSolr保存索引根据RowKey查询的安装与配置常用Shell命令常用Java API及应用实例1.HBase安装下载安装包解压安装包至路径/usr/local配置系统环境,将hbase下的bin目录添加到系统的path中2.HBase配置HBase有三种运行模式,单机模式、伪分布式模式、分布式模式。以下先决条件很重要,比如没有配置JAVA_HOME环境变量,就会报错。JDK Hadoop(单机模式不需要,伪分布式模式和分布式模式需要)SSH备注:安装完Hadoop时,
36、只包含HDFS和MapReduce等核心组件,并不包含HBase,因此,HBase需要单独安装启动关闭Hadoop和HBase的顺序一定是:启动Hadoop启动HBase关闭HBase关闭Hadoop HBASE_MANAGES_ZK=true,由HBase管理Zookeeper,否则启动独立的Zookeeper.建议:单机版HBase,使用自带Zookeeper;集群安装HBase则采用单独Zookeeper集群Shell命令帮助 查询数据库状态 hbase(main):024:0status 3 servers,0 dead,1.0000 average load 查询数据库版本 4.8.
37、2 HBase常用Shell命令create:创建表list:列出HBase中所有的表信息例子1:创建一个表,该表名称为tempTable,包含3个列族f1,f2和f3(1)利用命令create创建表tempTable,表中有f1,f2,f3三个列族(2)利用list列出Hbase中所有的表信息 put:向表、行、列指定的单元格添加数据 一次只能为一个表的一行数据的一个列添加一个数据 scan:浏览表的相关信息例子2:继续向表tempTable中的第r1行、第“f1:c1”列,添加数据值为“hello,dblab”(1)利用put命令向表tempTalble,行r1,列f1:c1中插入数据(2
38、)利用scan命令浏览表tempTable的相关信息在添加数据时,HBase会自动为添加的数据添加一个时间戳,当然,也可以在添加数据时人工指定时间戳的值.get:通过表名、行、列、时间戳、时间范围和版本号来获得相应单元格的值例子3:(1)从tempTable中,获取第r1行、第“f1:c1”列的值(2)从tempTable中,获取第r1行、第“f1:c3”列的值备注:f1是列族,c1和c3都是列从运行结果可以看出:tempTable中第r1行、第“f1:c3”列的值当前不存在enable/disable:使表有效或无效drop:删除表例子4:使表tempTable无效、删除该表(1)利用dis
39、able命令使表tempTable无效(2)利用drop命令删除表tempTable(3)利用list命令展示删除表tempTable后的效果HBase是Java编写的,它的原生的API也是Java开发的,不过,可以使用Java或其他语言调用API来访问HBase:首先要在工程中导入一下jar包:这里只需要导入hbase安装目录中的lib文件中的所有jar包,此处不用再导入Hadoop中的jar包,避免由于Hadoop和HBase的版本冲突引起错误。namescoreEnglishMathComputer学生信息表的表结构任务要求:创建表、插入数据、浏览数据创建一个学生信息表,用来存储学生姓名
40、(姓名作为行键,并且假设姓名不会重复)以及考试成绩,其中,考试成绩是一个列族,分别存储了各个科目的考试成绩。逻辑视图如表所示。namescoreEnglishMathComputerzhangsan698677lisi5510088需要添加的数据configuration;public static Connection connection;public static Admin admin;public static void main(String args)throws IOException createTable(“student”,new String“score”);inser
41、tData(“student”,“zhangsan”,“score”,“English”,“69”);insertData(“student”,“zhangsan”,“score”,“Math”,“86”);insertData(“student”,“zhangsan”,“score”,“Computer”,“77”);getData(“student”,“zhangsan”,“score”,“English”);public static void init()/建立连接public static void close()/关闭连接public static void createTable
42、()/创建表public static void insertData()/插入数据public static void getData/浏览数据建立连接,关闭连接/建立连接 public static void init()configuration =HBaseConfiguration.create();configuration.set(hbase.rootdir,hdfs:/localhost:9000/hbase);try connection=ConnectionFactory.createConnection(configuration);admin=connection.ge
43、tAdmin();catch(IOException e)e.printStackTrace();hbase-site.xmlhbase.rootdirhdfs:/localhost:9000/hbase 备注:(单机版)file:/DIRECTORY/hbase/关闭连接 public static void close()try if(admin!=null)admin.close();if(null!=connection)connection.close();catch(IOException e)e.printStackTrace();建立连接,关闭连接/*创建表*/*param m
44、yTableName 表名 *param colFamily列族数组 *throws Exception */public static void createTable(String myTableName,String colFamily)throws IOException TableName tableName=TableName.valueOf(myTableName);if(admin.tableExists(tableName)else HTableDescriptor hTableDescriptor=new HTableDescriptor(tableName);for(St
45、ring str:colFamily)HColumnDescriptor hColumnDescriptor=new HColumnDescriptor(str);hTableDescriptor.addFamily(hColumnDescriptor);admin.createTable(hTableDescriptor);在运行程序时,需要指定参数myTableName为“student”,colFamily为“score”程序的运行效果与如下HBase Shell命令等效:create student,scorenamescoreEnglishMathComputer建表/*添加数据*/
46、*param tableName 表名*param rowKey 行键*param colFamily 列族*param col 列限定符*param val 数据*throws Exception*/public static void insertData(String tableName,String rowKey,String colFamily,String col,String val)throws IOException Table table=connection.getTable(TableName.valueOf(tableName);Put put=new Put(Byt
47、es.toBytes(rowkey);put.addColumn(Bytes.toBytes(colFamily),Bytes.toBytes(col),Bytes.toBytes(val);table.put(put);table.close();namescoreEnglishMathComputerzhangsan698677lisi5510088添加数据时,需要分别设置参数myTableName、rowkey、colFamily、col、val的值,然后运行上述代码例如添加第一行数据时,为insertData()方法指定相应参数,并运行如下3行代码:insertData(student
48、,zhangsan,score,English,69);insertData(student,zhangsan,score,Math,86);insertData(student,zhangsan,score,Computer,77);上述代码与如下HBase Shell命令等效:put student,zhangsan,score:English,69;put student,zhangsan,score:Math,86;put student,zhangsan,score:Computer,77;浏览数据/*获取某单元格数据*/*param tableName 表名 *param rowK
49、ey 行键 *param colFamily 列族 *param col 列限定符 *throws IOException */public static void getData(String tableName,String rowKey,String colFamily,String col)throws IOException Table table=connection.getTable(TableName.valueOf(tableName);Get get=new Get(Bytes.toBytes(rowkey);get.addColumn(Bytes.toBytes(colF
50、amily),Bytes.toBytes(col);/获取的result数据是结果集,还需要格式化输出想要的数据才行 Result result=table.get(get);table.close();比如,现在要获取姓名为“zhangsan”在“English”上的数据,就可以在运行上述代码时,指定参数tableName为“student”、rowKey为“zhangsan”、colFamily为“score”、col为“English”。getData(student,zhangsan,score,English);上述代码与如下HBase Shell命令等效:get student,z
侵权处理QQ:3464097650--上传资料QQ:3464097650
【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。