[bigdata-016] python happybase 操作hbase
1. 用happybase库 操作 hbase
???????? deleteall 'testtable','event_0' 5. 示例代码 #!/usr/bin/env python3 #! coding:utf-8 -*- import happybase #要先在hbase某个节点上开启thrift服务 #hbase thrift -p 9090 start connection = happybase.Connection('192.168.0.1',autoconnect=False) connection.open() #print所有的表名 print('All tables: ',connection.tables(),'n') #操作testtable表 #这个操作是一个提前声明-我要用到这个表了-但不会提交给thrift server做操作 table = connection.table(b'testtable') #检索某一行 row = table.row(b'myrow-2') print('a row:',row,'n') #right print(row[b'colfam1:q1']) print(row[b'colfam1:q2']) #wrong # print(row['colfam1:q1']) # print(row['colfam1:q2']) #显示所有列族 print('所有列族',table.families(),'n') #输出两列 print('print two rows:') rows = table.rows([b'myrow-1',b'myrow-2']) for key,data in rows: print(key,data) #字典输出两列 print('n','print two dict rows') rows_as_dict = dict(table.rows([b'myrow-1',b'myrow-2'])) print(rows_as_dict) #输入row的一个列族所有值 row = table.row(b'myrow-2',columns=[b'colfam1']) print('n','输出一个列族',row) #scan操作 print('n','do scan') for key,data in table.scan(): print(key,data)6. 测试高表插入记录: 批量插入1000条记录,0.1~0.6s 批量插入1万条记录,1.5~3s 每秒7k条记录,性能比较靠谱 7. 测试宽表插入记录: 批量插入1000条记录,0.1~0.6s 批量插入1万条记录,1.5~3s 每秒7k条记录 高表和宽表性能几乎一样! (编辑:成都站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |