上一页 1 ··· 210 211 212 213 214 215 216 217 218 ··· 270 下一页
摘要: 如下,使用gomb库 结果如下: 10Key-0: Val-0Key-1: Val-1Key-2: Val-2Key-3: Val-3Key-4: Val-4Key-5: Val-5Key-6: Val-6Key-7: Val-7Key-8: Val-8Key-9: Val-9Val-3****** 阅读全文
posted @ 2017-05-24 17:17 bonelee 阅读(1189) 评论(0) 推荐(0) 编辑
摘要: 使用的是这个库:https://github.com/szferi/gomdb 安装: go get github.com/szferi/gomdb 代码: go build main.go 运行: ./main 出错: panic: runtime error: cgo argument has 阅读全文
posted @ 2017-05-24 16:45 bonelee 阅读(1431) 评论(0) 推荐(0) 编辑
摘要: =》 I guess this doesn't really answer your question, but if you want, you can actually call the methods without explicitly stating the package - just 阅读全文
posted @ 2017-05-24 16:37 bonelee 阅读(790) 评论(0) 推荐(0) 编辑
摘要: 更多见:http://blog.csdn.net/ayst123/article/details/44077903,摘录如下: write 这里,先建立lmdb的instance, db_img。 然后开始txn(可能有很多个开始?)。 put 存放,最后一定注意要commit()。不然根本没有存进 阅读全文
posted @ 2017-05-24 14:59 bonelee 阅读(1947) 评论(0) 推荐(0) 编辑
摘要: Hash hash可以算是一种两级kv,首先通过key找到一个hash对象,然后再通过field找到或者设置相应的值。 在ledisdb里面,我们需要将key跟field关联成一个key,用来存放或者获取对应的值,也就是key:field这种格式。 这样我们就将两级的kv获取转换成了一次kv操作。 阅读全文
posted @ 2017-05-24 13:25 bonelee 阅读(1165) 评论(0) 推荐(0) 编辑
摘要: 1. ssdb数据库说是类似redis,而且他们都有hash结构,但是他们的命名有点不同,ssdb 是(name,key,value) ,其实相对应的redis是(key,field,value),当然了对于使用函数上还是很像的; 2. ssdb中hash结构是(name,key,value),但l 阅读全文
posted @ 2017-05-24 11:41 bonelee 阅读(1045) 评论(0) 推荐(0) 编辑
摘要: 下面内容摘自:https://stackoverflow.com/questions/1821811/how-to-read-write-from-to-file-using-golang Start with the basics Here I used os.Open and os.Create 阅读全文
posted @ 2017-05-23 11:51 bonelee 阅读(9804) 评论(0) 推荐(0) 编辑
摘要: Kafka架构 如上图所示,一个典型的kafka集群中包含若干producer(可以是web前端产生的page view,或者是服务器日志,系统CPU、memory等),若干broker(Kafka支持水平扩展,一般broker数量越多,集群吞吐率越高),若干consumer group,以及一个Z 阅读全文
posted @ 2017-05-23 11:32 bonelee 阅读(6959) 评论(0) 推荐(0) 编辑
摘要: splunk的bucket组织目录:db_1481515116_1480695302_0db_1481537316_1481532688_1db_1481547598_1481539988_2db_1481617470_1481613403_3db_1481623046_1481619179_4db 阅读全文
posted @ 2017-05-23 10:14 bonelee 阅读(652) 评论(0) 推荐(0) 编辑
摘要: Topic在逻辑上可以被认为是一个在的queue,每条消费都必须指定它的topic,可以简单理解为必须指明把这条消息放进哪个queue里。 为了使得Kafka的吞吐率可以水平扩展,物理上把topic分成一个或多个partition,每个partition在物理上对应一个文件夹,该文件 夹下存储这个p 阅读全文
posted @ 2017-05-23 10:10 bonelee 阅读(4058) 评论(0) 推荐(0) 编辑
上一页 1 ··· 210 211 212 213 214 215 216 217 218 ··· 270 下一页