使用kibana构建各种图

1.3.1:建立索引

以下命令来为莎士比亚数据集设置 mapping(映射): 
curl -XPUT http://hadoop01:9200/shakespeare -d '
{
"mappings" : {
 "_default_" : {
  "properties" : {
   "speaker" : {"type": "string", "index" : "not_analyzed" },
   "play_name" : {"type": "string", "index" : "not_analyzed" },
   "line_id" : { "type" : "integer" },
   "speech_number" : { "type" : "integer" }
  }
}
}
}
';

索引index

这个参数可以控制字段应该怎样建索引,怎样查询。它有以下三个可用值:

· no: 不把此字段添加到索引中,也就是不建索引,此字段不可查询 
· not_analyzed:将字段的原始值放入索引中,作为一个独立的term,它是除string字段以外的所有字段的默认值。
· analyzed:string字段的默认值,会先进行分析后,再把分析的term结果存入索引中
该 mapping(映射)指定了数据集下列特质 :

字段解释:

1.  speaker 字段是不分析的字符串。在这个 filed(字段)中的字符串被视为一个单独的单元,即使在这个 fileld(字段)中有多个单词。
2. 这同样适用于 play_name 字段。
3. line_id 和 speech_number 字段是整数。

日志数据集需要映射,通过将 **geo_point**``类型应用于这些字段,将日志中的 latitude(纬度)/longitude(纬度)对标记为地理位置。

使用以下命令建立日志 geo_point mappig(映射):

curl -XPUT http://hadoop01:9200/logstash-2015.05.18 -d '
{
 "mappings": {
   "log": {
     "properties": {
       "geo": {
         "properties": {
           "coordinates": {
             "type": "geo_point"
          }
        }
      }
    }
  }
}
}
';
curl -XPUT http://hadoop01:9200/logstash-2015.05.19 -d '
{
 "mappings": {
   "log": {
     "properties": {
       "geo": {
         "properties": {
           "coordinates": {
             "type": "geo_point"
          }
        }
      }
    }
  }
}
}
';
curl -XPUT http://hadoop01:9200/logstash-2015.05.20 -d '
{
 "mappings": {
   "log": {
     "properties": {
       "geo": {
         "properties": {
           "coordinates": {
             "type": "geo_point"
          }
        }
      }
    }
  }
}
}
';

1.3.2:导入数据

accounts(账目)数据集不需要任何 mapping(映射),所以在这一点上,我们已经准备好使用 Elasticsearchbulk API 加载数据集,使用以下命令 :

curl -XPOST 'hadoop01:9200/bank/account/_bulk?pretty' --data-binary @accounts.json
curl -XPOST 'hadoop01:9200/shakespeare/_bulk?pretty' --data-binary @shakespeare.json
curl -XPOST 'hadoop01:9200/_bulk?pretty' --data-binary @logs.jsonl

1.3.3:定义索引模式

使用create index Pattern创建一下索引:

Lostash-、ba、bank、shakes*、shakespeare

1.3.4:发现数据discover

1.3.5:可视化操作

1.3.5.1:创建饼图

1):步骤:Visualize--》create a visualization

2):选择饼图

选择bank:

按照账户余额balance进行饼图的划分

1.3.5.2:构建条形图

1):选择sharks*索引

2):展示每个演员的口语数量

1.3.5.3:构建地图

展示采集的数据中logstash日志文件中,用户的地理位置

(其中的geo.coordinates是ip所在的经纬度)

 

 

posted @ 2017-05-23 00:10  niutao  阅读(2040)  评论(0编辑  收藏  举报