7,166
edits
(184 intermediate revisions by the same user not shown) | |||
Line 1: | Line 1: | ||
= Elastic stack / ELK (Elasticsearch + Logstash + Kibana) = | = Elastic stack / ELK (Elasticsearch + Logstash + Kibana) = | ||
'''諸般の事情により更新休止します''' | |||
== 久しぶりの追記 == | |||
久しぶりに logstash.conf を修正したら、割と重要な仕様変更がたくさんあり、過去の記述は現在の仕様に合ってないです。ちなみに ruby code を追記したのですが、event.get event.set とかになっている。 | |||
<syntaxhighlight lang="javascript" enclose="div"> | |||
ruby { | |||
code => "event.set('foo',event.get('foo')+ 5.1)" | |||
} | |||
</syntaxhighlight> | |||
こんな感じ。 | |||
その他、認証系強化による仕様の混乱はとりあえずなんとかするしかないw | |||
== splunk のデモをみて、自分の環境に logstash を入れてみた。 :) == | == splunk のデモをみて、自分の環境に logstash を入れてみた。 :) == | ||
:(ELKBの更新が速いので、随時記事をアップデートします。[https://www.elastic.co/downloads/elasticsearch Elasticsearch | :(ELKBの更新が速いので、随時記事をアップデートします。[https://www.elastic.co/downloads/elasticsearch Elasticsearch 7.6.2], [https://www.elastic.co/downloads/logstash Logstash 7.6.2], [https://www.elastic.co/downloads/beats/filebeat Filebeat 7.6.2], [https://www.elastic.co/downloads/kibana Kibana 7.6.2]) | ||
:[http://ja.splunk.com/ splunk] のデモを見て、構造化ロギング・高速検索・可視化の素晴らしさが解ったので、それをオープンソースの Elastic stack (ELK stack) で実現する。 | :[http://ja.splunk.com/ splunk] のデモを見て、構造化ロギング・高速検索・可視化の素晴らしさが解ったので、それをオープンソースの Elastic stack (ELK stack) で実現する。 | ||
:ELK でログ管理をしはじめて、いままで気付かなかった事がいろいろ見えて、かなり改善しました(実感!) | :ELK でログ管理をしはじめて、いままで気付かなかった事がいろいろ見えて、かなり改善しました(実感!) | ||
最近の Elastic Stack は logstash いらずで簡易にという方向を狙ってきている。それはそれで嬉しいが、いろいろ細かく触りたい場合には、まだまだ logstash をホゲらないと逝けない。 | |||
::完全に通常の運用につかっているので、アグレッシブな変更はできなくなってるので突っ込んだ記事がかけない^^;;; | |||
7.6.0 は kibana の index の変換するのだが、elasticseach のサーキットブレーカーが作動して完了しない。 | |||
:一時的に elasticsearch の heap 増やした。(最終的には、今回の件がギリギリ回避できるメモリー量に増やした) | |||
7.6.0 から X-Pack の概念が変わった(なくなった?) | |||
:logstash.yml から xpack の設定をコメントアウト | |||
timelion の位置付けが変わった。 | |||
kibana.ymlに | |||
<syntaxhighlight lang="yaml" enclose="div"> | |||
timelion.ui.enabled: true | |||
</syntaxhighlight> | |||
で元に戻る。設定を確認して、新しいビジュアライズに移行する。 | |||
7.4.1 の logstash がダメっぽい。ヘビー io-wait | |||
:以前よりメモリー食いになってるようで、ES も含めて頑張って使用メモリー削減してかろうじて稼働中 | |||
:: dns filter がぁ failed_cache_size ちゃんと設定しないとまずい。 | |||
'''ようやく 7.x にあげた''' | |||
あら...意外と簡単に入った 7.4.0...でもないぞ。 | |||
よく見たら index 名が変わって Index Lifecycle Management がよしなにしてしまうようで、昔に戻すには elasticsearch output pulgin で | |||
<syntaxhighlight lang="javascript" enclose="div"> | |||
ilm_enabled => false | |||
</syntaxhighlight> | |||
kibana の index pattern を削除したあとトラブル。新しい index pattern 作っているのに index pattern が無いので作れといわれる | |||
解決策は、新しい index pattern を作るときに、advanced options を表示して、Custom index pattern ID に index pattern と同じ文字をいれる。たとえば index pattern が "logstash-*" なら Custom index pattern ID も "logstash-*" とする。 | |||
私は '*' という文字が嫌なので(あとで問題起きそう)、全部 id を書き換えた。 | |||
filebeat.yml で filebeat.registry_file 行削除すること | |||
logstash の elasticsearch-template を変更 | |||
<syntaxhighlight lang="javascript" enclose="div"> | |||
"_default_" : { | |||
**** | |||
} | |||
</syntaxhighlight> | |||
を削除 | |||
python beaver から送られる 'host' を remove | |||
<syntaxhighlight lang="javascript" enclose="div"> | |||
mutate { | |||
rename => { "host" => "my_host" } | |||
} | |||
mutate { | |||
add_field => { "[host][name]" => "%{my_host}" } | |||
} | |||
</syntaxhighlight> | |||
beats が送っていた "host" は host.name に | |||
[host][name] | |||
agent.* が増えた | |||
7.0.0 出た! テストは気力があるときwにします。。。 | |||
6.6.1 で geoip.postal_code の型がコンフリクト | |||
[https://github.com/logstash-plugins/logstash-output-elasticsearch/pull/788/files#diff-c1b7e63b1e6f2c2cfe8656fa847ecba5 "postal_code" : { "type" : "keyword" }] | |||
6.5.0 で kibana の index が変更されて .kibana_1 .kibana_2 というのができた。これですこしハマった。 | |||
6.2.0 で /etc/elasticsearch/jvm.options | |||
-Djava.io.tmpdir=${ES_TMPDIR} | |||
:: ES_TMPDIR の定義がないのでエラーになる。 | |||
'''filebeat 6.3.0 は問題ありそう。6.2.4 のままで様子を見る。''' | |||
"error"=>{"type"=>"mapper_parsing_exception", "reason"=>"failed to parse [host]" | |||
:::[https://github.com/elastic/beats/issues/7050 Metricbeat `host` namespace causes mapping conflict when used with Logstash] | |||
:::[https://discuss.elastic.co/t/logstash-errors-after-upgrading-to-filebeat-6-3-0/135984/5 Logstash errors after upgrading to filebeat-6.3.0] | |||
[https://github.com/elastic/beats/blob/master/libbeat/docs/breaking.asciidoc#breaking-changes-in-63 Breaking changes in 6.3] | |||
:ここに着地 | |||
:[https://github.com/elastic/ | |||
: | <syntaxhighlight lang="javascript" enclose="div"> | ||
"mappings" : { | |||
"properties" : { | |||
"host" : { | |||
"dynamic": true, | |||
"properties" : { | |||
"name": { "type": "keyword" }, | |||
"id" : { "type" : "keyword" }, | |||
"architecture" : { "type" : "keyword" }, | |||
"os" : { | |||
"dynamic" : true, | |||
"properties" : { | |||
"platform": { "type": "keyword" }, | |||
"version": { "type": "keyword" }, | |||
"family": { "type": "keyword" } | |||
} | |||
"ip" : { "type" : "ip" }, | |||
"mac" : { "type" : "keyword" } | |||
} | |||
} | |||
} | |||
} | |||
} | |||
</syntaxhighlight> | |||
:こんな感じの template でいいのかねぇ | |||
::[https://github.com/elastic/ecs Elastic Common Schema] こんなこと計画してるらしい | |||
それか無視するか | |||
<syntaxhighlight lang="javascript" enclose="div"> | |||
# For Beat and LSF compatibility | |||
if [beat][name] { | |||
# Remove host metadata | |||
mutate { | |||
remove_field => [ "[host]" ] | |||
} | |||
mutate { | |||
add_field => { | |||
"host" => "%{[beat][name]}" | |||
} | |||
} | |||
</syntaxhighlight> | |||
:beat.hostname ではなく beat.name つかえと... | |||
===logstash の書籍=== | ===logstash の書籍=== | ||
Line 40: | Line 172: | ||
Filebeat: | Filebeat: | ||
端末(filebeat) ----> 解析サーバ(logstash-shipper) | 端末(filebeat) ----> 解析サーバ(logstash-shipper) | ||
[端末(filebeat) ----> 解析・蓄積(Elasticsearch Ingest Node)] | |||
logstash-shipper: | logstash-shipper: | ||
Filebeat の待ち受け(input beats)、ブローカーへそのまま吐き出す(output redis) | Filebeat の待ち受け(input beats)、ブローカーへそのまま吐き出す(output redis) | ||
Line 135: | Line 269: | ||
==== Filebeat 設定 ==== | ==== Filebeat 設定 ==== | ||
'''filebeat.yml 例 ( | '''filebeat.yml 例 (6.0 仮)''' | ||
: 6.0 は type が使えないので log_type という名前のカスタムフィールドに変更する。 | |||
::logstash 使うので filebeat modules は使わない。 | |||
:::modules 勉強しないといけない。 | |||
::::もともと logstash から入ったので modules は私には不要かも... | |||
<syntaxhighlight lang="yaml" enclose="div"> | <syntaxhighlight lang="yaml" enclose="div"> | ||
######################## Filebeat Configuration ############################ | |||
#=========================== Filebeat prospectors ============================= | |||
filebeat.inputs: | |||
#filebeat.prospectors: | |||
- type: log | |||
paths: | |||
- /var/log/syslog | |||
- /var/log/mail.log | |||
- /var/log/auth.log | |||
fields: | |||
log_type: syslog | |||
fields_under_root: true | |||
- type: log | |||
paths: | |||
/var/log/apache2/access.log | |||
fields: | |||
log_type: apache | |||
fields_under_root: true | |||
- type: log | |||
paths: | |||
/var/log/apache2/other_vhosts_access.log | |||
fields: | |||
log_type: apache-other-vhost | |||
fields_under_root: true | |||
- type: log | |||
paths: | |||
/var/log/apache2/error.log | |||
fields: | |||
log_type: apache-error | |||
fields_under_root: true | |||
- type: log | |||
paths: | |||
/var/log/varnish/varnishncsa.log | |||
fields: | |||
log_type: varnish | |||
fields_under_root: true | |||
- type: log | |||
paths: | |||
/var/log/dpkg.log | |||
fields: | |||
log_type: dpkg | |||
fields_under_root: true | |||
- type: log | |||
paths: | |||
/var/log/fail2ban.log | |||
fields: | |||
log_type: fail2ban | |||
fields_under_root: true | |||
# | #========================= Filebeat global options ============================ | ||
filebeat.registry_file: /var/lib/filebeat/registry | |||
# | #================================ Outputs ====================================== | ||
#----------------------------- Logstash output --------------------------------- | |||
output.logstash: | |||
# The Logstash hosts | |||
hosts: ["localhost:5044"] | |||
# Optional SSL. By default is off. | |||
# List of root certificates for HTTPS server verifications | |||
ssl.certificate_authorities: ["/etc/logstash/logstash-forwarder.crt"] | |||
# Certificate for TLS client authentication | |||
#ssl.certificate: "/etc/logstash/logstash-forwarder.crt" | |||
# Client Certificate Key | |||
#ssl.key: "/etc/logstash/logstash-forwarder.key" | |||
# Configure SSL verification mode. If `none` is configured, all server hosts | |||
# and certificates will be accepted. In this mode, SSL based connections are | |||
# susceptible to man-in-the-middle attacks. Use only for testing. Default is | |||
# `full`. | |||
#ssl.verification_mode: full | |||
ssl.verification_mode: none | |||
#================================ Logging ====================================== | |||
# There are three options for the log output: syslog, file, stderr. | |||
# Under Windows systems, the log files are per default sent to the file output, | |||
# under all other system per default to syslog. | |||
# Sets log level. The default log level is info. | |||
# Available log levels are: critical, error, warning, info, debug | |||
#logging.level: info | |||
logging.level: info | |||
#### | # Enable debug output for selected components. To enable all selectors use ["*"] | ||
# Other available selectors are "beat", "publish", "service" | |||
# Multiple selectors can be chained. | |||
#logging.selectors: [ ] | |||
# | # Send all logging output to syslog. The default is false. | ||
#logging.to_syslog: true | |||
# | logging.to_syslog: false | ||
logging: | |||
# If enabled, filebeat periodically logs its internal metrics that have changed | |||
# in the last period. For each metric that changed, the delta from the value at | |||
# the beginning of the period is logged. Also, the total values for | |||
# all non-zero internal metrics are logged on shutdown. The default is true. | |||
#logging.metrics.enabled: true | |||
# The period after which to log the internal metrics. The default is 30s. | |||
#logging.metrics.period: 30s | |||
# Logging to rotating files files. Set logging.to_files to false to disable logging to | |||
# files. | |||
logging.to_files: true | |||
logging.files: | |||
# Configure the path where the logs are written. The default is the logs directory | |||
# under the home path (the binary location). | |||
#path: /var/log/filebeat | |||
path: /var/log/filebeat | |||
# The name of the files where the logs are written to. | |||
#name: filebeat | |||
name: filebeat.log | |||
# Configure log file size limit. If limit is reached, log file will be | |||
# automatically rotated | |||
#rotateeverybytes: 10485760 # = 10MB | |||
rotateeverybytes: 10485760 # = 10MB | |||
# Number of rotated log files to keep. Oldest files will be deleted first. | |||
#keepfiles: 7 | |||
keepfiles: 7 | |||
# | # The permissions mask to apply when rotating log files. The default value is 0600. | ||
# Must be a valid Unix-style file permissions mask expressed in octal notation. | |||
# | #permissions: 0600 | ||
# | |||
# Set to true to log messages in json format. | |||
#logging.json: false | |||
</syntaxhighlight> | </syntaxhighlight> | ||
Line 319: | Line 444: | ||
*apache | *apache | ||
[https://github.com/logstash-plugins/logstash-patterns-core/blob/master/patterns/httpd 公式 pattern の COMBINEDAPACHELOG] | [https://github.com/logstash-plugins/logstash-patterns-core/blob/master/patterns/httpd 公式 pattern の COMBINEDAPACHELOG] | ||
[https://github.com/nxhack/logstash/blob/master/patterns/apache apache grok pattern] | [https://github.com/nxhack/logstash/blob/master/patterns/apache apache grok pattern] | ||
Line 359: | Line 484: | ||
https://github.com/ua-parser/uap-core/blob/master/regexes.yaml | https://github.com/ua-parser/uap-core/blob/master/regexes.yaml | ||
https://raw.githubusercontent.com/ua-parser/uap-core/master/regexes.yaml | https://raw.githubusercontent.com/ua-parser/uap-core/master/regexes.yaml | ||
geoip 更新処理 | |||
<syntaxhighlight lang="bash" enclose="div"> | |||
wget http://geolite.maxmind.com/download/geoip/database/GeoLite2-City.mmdb.gz | |||
wget http://geolite.maxmind.com/download/geoip/database/GeoLite2-Country.mmdb.gz | |||
wget http://geolite.maxmind.com/download/geoip/database/GeoLite2-ASN.tar.gz | |||
rm *.old | |||
mv GeoLite2-City.mmdb GeoLite2-City.mmdb.old | |||
mv GeoLite2-Country.mmdb GeoLite2-Country.mmdb.old | |||
mv GeoLite2-ASN.mmdb GeoLite2-ASN.mmdb.old | |||
gunzip GeoLite2-City.mmdb.gz | |||
gunzip GeoLite2-Country.mmdb.gz | |||
tar xfz GeoLite2-ASN.tar.gz --strip=1 --wildcards */GeoLite2-ASN.mmdb | |||
rm GeoLite2-ASN.tar.gz | |||
</syntaxhighlight> | |||
== enable high precision timestamps == | == enable high precision timestamps == | ||
Line 364: | Line 504: | ||
===rsyslog の timestamp を milliseconds まで取る=== | ===rsyslog の timestamp を milliseconds まで取る=== | ||
:/etc/rsyslog.conf の | :/etc/rsyslog.conf の | ||
# Use traditional timestamp format. | # Use traditional timestamp format. | ||
# To enable high precision timestamps, comment out the following line. | # To enable high precision timestamps, comment out the following line. | ||
# | # | ||
$ActionFileDefaultTemplate RSYSLOG_TraditionalFileFormat | $ActionFileDefaultTemplate RSYSLOG_TraditionalFileFormat | ||
:の指示通り、"ActionFileDefaultTemplate" 行をコメントアウトする。 | :の指示通り、"ActionFileDefaultTemplate" 行をコメントアウトする。 | ||
Line 429: | Line 569: | ||
== X-Pack == | == X-Pack == | ||
Basic ライセンスというのが Free で、ライセンスを1年ごとに更新していけば、ずっと無料でつかえそうだ。 | |||
/ | :6.3.0 から Basic ライセンスは有効期限が無制限になった。また面倒だったアップテート時の x-pack のインストース作業も不要になった。 | ||
<syntaxhighlight lang=" | |||
自分のテスト環境はシングルノードなので status が YELLOW にならないように、 | |||
/usr/share/elasticsearch/plugins/x-pack/x-pack-core/x-pack-core-6.2.4.jar | |||
:テンプレート json の index.number_of_replicas を変更する。 | |||
curl -XDELETE 'http://127.0.0.1:9200/_template/.monitoring-logstash' | |||
curl -XDELETE 'http://127.0.0.1:9200/_template/.monitoring-alerts' | |||
curl -XDELETE 'http://127.0.0.1:9200/_template/.monitoring-es-2' | |||
curl -XDELETE 'http://127.0.0.1:9200/_template/.monitoring-es' | |||
curl -XDELETE 'http://127.0.0.1:9200/_template/.monitoring-data-2' | |||
curl -XDELETE 'http://127.0.0.1:9200/_template/.monitoring-kibana-2' | |||
curl -XDELETE 'http://127.0.0.1:9200/_template/.monitoring-kibana' | |||
作ってしまった index の index.number_of_replicas を変更する。 | |||
<syntaxhighlight lang="bash" enclose="div"> | |||
curl -XPUT 'http://localhost:9200/.monitoring-es-6-2017.12.05/_settings' -H 'Content-Type: application/json' -d' | |||
{ | |||
"index" : { | |||
"number_of_replicas" : "0" | |||
} | |||
} | |||
' | |||
curl -XPUT 'http://localhost:9200/.monitoring-logstash-6-2017.12.05/_settings' -H 'Content-Type: application/json' -d' | |||
{ | |||
"index" : { | |||
"number_of_replicas" : "0" | |||
} | |||
} | |||
' | |||
curl -XPUT 'http://localhost:9200/.monitoring-kibana-6-2017.12.05/_settings' -H 'Content-Type: application/json' -d' | |||
{ | |||
"index" : { | |||
"number_of_replicas" : "0" | |||
} | |||
} | |||
' | |||
</syntaxhighlight> | |||
Elastic Stack がアップデートされたら、いちいち明示的に X-Pack をアップデートしなければいけないのは萎える。 | |||
:6.3.0 から標準パッケージにはいったっぽい。 | |||
<syntaxhighlight lang="bash" enclose="div"> | |||
systemctl stop logstash | |||
systemctl stop kibana | |||
systemctl stop elasticsearch | |||
cd /usr/share/logstash | |||
./bin/logstash-plugin install logstash-output-statsd | |||
./bin/logstash-plugin install logstash-filter-throttle | |||
./bin/logstash-plugin install logstash-filter-sleep | |||
systemctl start elasticsearch | |||
systemctl start kibana | |||
systemctl start logstash | |||
</syntaxhighlight> | </syntaxhighlight> | ||
また、elasticsearch を(再)起動する時点で、kibana や logstash が稼働している場合に、monitor を突きにくるので、認証エラーが多発する。 | |||
これは無視してよいが気持ち悪い。 | |||
Authentication of [kibana] was terminated by realm [reserved] - failed to authenticate user [kibana] | |||
Authentication of [logstash_system] was terminated by realm [reserved] - failed to authenticate user [logstash_system] | |||
== LS 2.3.1 geoip issue == | == LS 2.3.1 geoip issue == | ||
Line 522: | Line 715: | ||
== RLIMIT_MEMLOCK == | == RLIMIT_MEMLOCK == | ||
systemd 配下の場合は /usr/lib/systemd/system/elasticsearch.service | systemd 配下の場合は /usr/lib/systemd/system/elasticsearch.service | ||
<syntaxhighlight lang="text" enclose="div"> | |||
[service] | |||
LimitMEMLOCK=infinity | |||
</syntaxhighlight> | |||
こっちで対処するのが良いそうだ。 | |||
<syntaxhighlight lang="bash" enclose="div"> | |||
systemctl edit elasticsearch | |||
</syntaxhighlight> | |||
このコマンドで、 | |||
/etc/systemd/system/elasticsearch.service.d/override.conf | |||
ここに、 | |||
<syntaxhighlight lang="text" enclose="div"> | <syntaxhighlight lang="text" enclose="div"> | ||
[service] | [service] | ||
Line 530: | Line 735: | ||
<syntaxhighlight lang="text" enclose="div"> | <syntaxhighlight lang="text" enclose="div"> | ||
discovery.type: single-node | discovery.type: single-node | ||
</syntaxhighlight> | |||
== Elastic Stack 6.0.0 upgrade memo == | |||
"type" がつかえない | |||
https://www.elastic.co/guide/en/elasticsearch/reference/master/removal-of-types.html | |||
statsd が標準プラグインから消えた。 | |||
./bin/logstash-plugin install logstash-output-statsd | |||
kibana の '.kibana' のフォーマット変換が必要 | |||
https://www.elastic.co/guide/en/kibana/6.0/migrating-6.0-index.html | |||
"type" が使えなくなったので "log_type" というカスタムフィールドにかえた。その変更をコツコツした。 | |||
変換後いろいろ確認して、無駄なものを削除した | |||
curl -XGET 'http://127.0.0.1:9200/.kibana/_search/?size=1000&pretty' | |||
curl -XDELETE 'http://127.0.0.1:9200/.kibana/doc/#{_id} | |||
python beaver も 6.0 には対応できてない。 | |||
とりあえず type を送らないようにした。 | |||
<syntaxhighlight lang="diff" enclose="div"> | |||
--- ./beaver/transports/base_transport.py.orig 2017-11-30 10:57:01.546311555 +0900 | |||
+++ ./beaver/transports/base_transport.py 2017-11-24 11:40:34.962587490 +0900 | |||
@@ -36,21 +36,19 @@ | |||
self._logstash_version = beaver_config.get('logstash_version') | |||
if self._logstash_version == 0: | |||
self._fields = { | |||
- 'type': '@type', | |||
'tags': '@tags', | |||
'message': '@message', | |||
'file': '@source_path', | |||
'host': '@source_host', | |||
- 'raw_json_fields': ['@message', '@source', '@source_host', '@source_path', '@tags', '@timestamp', '@type'], | |||
+ 'raw_json_fields': ['@message', '@source', '@source_host', '@source_path', '@tags', '@timestamp'], | |||
} | |||
elif self._logstash_version == 1: | |||
self._fields = { | |||
- 'type': 'type', | |||
'tags': 'tags', | |||
'message': 'message', | |||
'file': 'file', | |||
'host': 'host', | |||
- 'raw_json_fields': ['message', 'host', 'file', 'tags', '@timestamp', 'type'], | |||
+ 'raw_json_fields': ['message', 'host', 'file', 'tags', '@timestamp'], | |||
} | |||
def raw_formatter(data): | |||
@@ -122,7 +120,6 @@ | |||
formatter = self._default_formatter | |||
data = { | |||
- self._fields.get('type'): kwargs.get('type'), | |||
self._fields.get('tags'): kwargs.get('tags'), | |||
'@timestamp': timestamp, | |||
self._fields.get('host'): self._current_host, | |||
</syntaxhighlight> | </syntaxhighlight> | ||
Line 831: | Line 1,096: | ||
/var/log/kibana/kibana.stdout が肥大化していたので logrotate 設定した。 | /var/log/kibana/kibana.stdout が肥大化していたので logrotate 設定した。 | ||
--> | --> | ||
=== IPv6 address の抽出 === | |||
単純な方法があった。 | |||
<syntaxhighlight lang="text" enclose="div"> | |||
client_ip: *\:* | |||
</syntaxhighlight> | |||
:これだとマッチしないのがあるっぽいな。要調査 | |||
<syntaxhighlight lang="text" enclose="div"> | |||
client_ip: ["::" TO "ffff:ffff:ffff:ffff:ffff:ffff:ffff:ffff"] | |||
</syntaxhighlight> | |||
:これでも抜けるな | |||
::これかな? [https://github.com/elastic/elasticsearch/issues/29288 unable to CIDR match IPv4-mapped IPv6] | |||
:::あちゃ。type ipになってなかった。もうすこしホゲる。 | |||
:::: type ip にしてみたが、うまくマッチする方法がみつからない。 | |||
どうやら type ip ではこれで良い。このアドレスはインターネットに広報してよいブロックのみ。これ以外は変えないといけない。 | |||
<syntaxhighlight lang="text" enclose="div"> | |||
client_ip: "2000::/3" | |||
</syntaxhighlight> | |||
ちなみに logstash だとこんなコードでマッチする。実運用では logstash 側のロジックで新しいフィールドつくった。 | |||
結局 type ip ならこれでよさそうだ。 | |||
<syntaxhighlight lang="text" enclose="div"> | |||
if [client_ip] =~ /:/ { | |||
# is IPv6, do something | |||
mutate { | |||
add_field => { "client_ipv6" => "%{client_ip}" } | |||
} | |||
} | |||
</syntaxhighlight> | |||
== dashboard URL == | == dashboard URL == | ||
Line 875: | Line 1,169: | ||
= Elasticsearch = | = Elasticsearch = | ||
== 構造 == | == 構造 == | ||
http://127.0.0.1:9200/{INDEX}/{TYPE:mapping}/{ID:Document} | curl -XGET 'http://127.0.0.1:9200/{INDEX}/{TYPE:mapping}/{ID:Document}' | ||
http://127.0.0.1:9200/{INDEX}/{TYPE:mapping}/{ID:Document}/_source | curl -XGET 'http://127.0.0.1:9200/{INDEX}/{TYPE:mapping}/{ID:Document}/_source' | ||
http://127.0.0.1:9200/{INDEX}/{TYPE:mapping}/_mapping | curl -XGET 'http://127.0.0.1:9200/{INDEX}/{TYPE:mapping}/_mapping' | ||
http://127.0.0.1:9200/{INDEX}/{TYPE:mapping}/_mapping?pretty | curl -XGET 'http://127.0.0.1:9200/{INDEX}/{TYPE:mapping}/_mapping?pretty' | ||
http://127.0.0.1:9200/_search?q=tags:_grokparsefailure | curl -XGET 'http://127.0.0.1:9200/_search?q=tags:_grokparsefailure' | ||
http://127.0.0.1:9200/_cluster/health?pretty | curl -XGET 'http://127.0.0.1:9200/_cluster/health?pretty' | ||
http://127.0.0.1:9200/_template?pretty | curl -XGET 'http://127.0.0.1:9200/_template?pretty' | ||
http://127.0.0.1:9200/kibana-int/_search?q=*:*&pretty | curl -XGET 'http://127.0.0.1:9200/kibana-int/_search?q=*:*&pretty' | ||
http://127.0.0.1:9200/kibana-int/_search?q=*:*&size=100&pretty | curl -XGET 'http://127.0.0.1:9200/kibana-int/_search?q=*:*&size=100&pretty' | ||
http://127.0.0.1:9200/kibana-int/_search/?size=100&pretty | curl -XGET 'http://127.0.0.1:9200/kibana-int/_search/?size=100&pretty' | ||
== 設定 == | == 設定 == | ||
Line 924: | Line 1,218: | ||
</syntaxhighlight> | </syntaxhighlight> | ||
:curator4 で大幅に書式変わった。 | :curator4 で大幅に書式変わった。 | ||
Disk full で index がロックされた場合 | |||
<syntaxhighlight lang="bash" enclose="div"> | |||
curl -XPUT -H "Content-Type: application/json" http://localhost:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}' | |||
</syntaxhighlight> | |||
[https://github.com/lmenezes/elasticsearch-kopf kopf web admin interface for elasticsearch] | [https://github.com/lmenezes/elasticsearch-kopf kopf web admin interface for elasticsearch] | ||
Line 936: | Line 1,235: | ||
curl -XDELETE 'http://127.0.0.1:9200/logstash-YYYY.MM.DD/sysdig' | curl -XDELETE 'http://127.0.0.1:9200/logstash-YYYY.MM.DD/sysdig' | ||
</syntaxhighlight> | </syntaxhighlight> | ||
X-Pack 削除したら... | |||
curl -XGET 'http://127.0.0.1:9200/_cluster/health?level=shards&pretty' | |||
curl -XDELETE 'http://127.0.0.1:9200/.security' | |||
curl -XDELETE 'http://127.0.0.1:9200/.triggered_watches' | |||
curl -XDELETE 'http://127.0.0.1:9200/.watches' | |||
curl -XDELETE 'http://127.0.0.1:9200/.monitoring-es-6-YYYY.MM.DD' | |||
curl -XDELETE 'http://127.0.0.1:9200/.monitoring-alerts-6' | |||
curl -XDELETE 'http://127.0.0.1:9200/.watcher-history-6-YYYY.MM.DD' | |||
= memo = | = memo = |