国产亚洲精品福利在线无卡一,国产精久久一区二区三区,亚洲精品无码国模,精品久久久久久无码专区不卡

當(dāng)前位置: 首頁 > news >正文

推廣普通話喜迎二十手抄報seo鏈接優(yōu)化建議

推廣普通話喜迎二十手抄報,seo鏈接優(yōu)化建議,網(wǎng)站服務(wù)器位置查詢,怎么評價網(wǎng)站做的好壞目錄 一、grok 正則捕獲插件 自定義表達式調(diào)用 二、mutate 數(shù)據(jù)修改插件 示例: ●將字段old_field重命名為new_field ●添加字段 ●將字段刪除 ●將filedName1字段數(shù)據(jù)類型轉(zhuǎn)換成string類型,filedName2字段數(shù)據(jù)類型轉(zhuǎn)換成float類型 ●將filedNam…

目錄

一、grok 正則捕獲插件

自定義表達式調(diào)用

二、mutate 數(shù)據(jù)修改插件

示例:

●將字段old_field重命名為new_field

●添加字段

●將字段刪除

●將filedName1字段數(shù)據(jù)類型轉(zhuǎn)換成string類型,filedName2字段數(shù)據(jù)類型轉(zhuǎn)換成float類型

●將filedName字段中所有"/“字符替換為”_"

●將filedName字段以"|"為分割符拆分數(shù)據(jù)成為數(shù)組

●合并 “filedName1” 和 “ filedName2” 兩個字段

●用新值替換filedName字段的值

●添加字段first,值為message數(shù)組的第一個元素的值

●有條件的添加標(biāo)簽

三、multiline 多行合并插件

安裝 multiline 插件

在線安裝插件

離線安裝插件

使用 multiline 插件

四、date 時間處理插件

時間戳詳解:


一、grok 正則捕獲插件

grok 使用文本片段切分的方式來切分日志事件

//內(nèi)置正則表達式調(diào)用

%{SYNTAX:SEMANTIC}

SYNTAX代表匹配值的類型,例如,0.11可以NUMBER類型所匹配,10.222.22.25可以使用IP匹配。

SEMANTIC表示存儲該值的一個變量聲明,它會存儲在elasticsearch當(dāng)中方便kibana做字段搜索和統(tǒng)計,你可以將一個IP定義為客戶端IP地址client_ip_address,如%{IP:client_ip_address},所匹配到的值就會存儲到client_ip_address這個字段里邊,類似數(shù)據(jù)庫的列名,也可以把 event log 中的數(shù)字當(dāng)成數(shù)字類型存儲在一個指定的變量當(dāng)中,比如響應(yīng)時間http_response_time,假設(shè)event log record如下:

message: 192.168.110.100 GET /index.html 15824 0.043

可以使用如下grok pattern來匹配這種記錄

%{IP:client_id_address} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:http_response_time}

在logstash conf.d文件夾下面創(chuàng)建filter conf文件,內(nèi)容如下

vim /etc/logstash/conf.d/01-filter.conf
filter {grok {match => { "message" => "%{IP:client_id_address} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:http_response_time}" }}
}

以下是filter結(jié)果

client_id_address: 192.168.110.100
method: GET
request: /index.html
bytes: 15824
http_response_time: 0.043

logstash 官方也給了一些常用的常量來表達那些正則表達式,可以到這個 Github 地址查看有哪些常用的常量:

https://github.com/logstash-plugins/logstash-patterns-core/blob/main/patterns/ecs-v1/grok-patterns


USERNAME [a-zA-Z0-9._-]+
USER %{USERNAME}
EMAILLOCALPART [a-zA-Z][a-zA-Z0-9_.+-=:]+
EMAILADDRESS %{EMAILLOCALPART}@%{HOSTNAME}
INT (?:[+-]?(?:[0-9]+))
BASE10NUM (?<![0-9.+-])(?>[+-]?(?:(?:[0-9]+(?:\.[0-9]+)?)|(?:\.[0-9]+)))
NUMBER (?:%{BASE10NUM})
BASE16NUM (?<![0-9A-Fa-f])(?:[+-]?(?:0x)?(?:[0-9A-Fa-f]+))
BASE16FLOAT \b(?<![0-9A-Fa-f.])(?:[+-]?(?:0x)?(?:(?:[0-9A-Fa-f]+(?:\.[0-9A-Fa-f]*)?)|(?:\.[0-9A-Fa-f]+)))\b

POSINT \b(?:[1-9][0-9]*)\b
NONNEGINT \b(?:[0-9]+)\b
WORD \b\w+\b
NOTSPACE \S+
SPACE \s*
DATA .*?
GREEDYDATA .*
QUOTEDSTRING (?>(?<!\\)(?>"(?>\\.|[^\\"]+)+"|""|(?>'(?>\\.|[^\\']+)+')|''|(?>(?>\\.|[^\\]+)+)|))
UUID [A-Fa-f0-9]{8}-(?:[A-Fa-f0-9]{4}-){3}[A-Fa-f0-9]{12}
?

# URN, allowing use of RFC 2141 section 2.3 reserved characters
URN urn:[0-9A-Za-z][0-9A-Za-z-]{0,31}:(?:%[0-9a-fA-F]{2}|[0-9A-Za-z()+,.:=@;$_!*'/?#-])+

# Networking
MAC (?:%{CISCOMAC}|%{WINDOWSMAC}|%{COMMONMAC})
CISCOMAC (?:(?:[A-Fa-f0-9]{4}\.){2}[A-Fa-f0-9]{4})
WINDOWSMAC (?:(?:[A-Fa-f0-9]{2}-){5}[A-Fa-f0-9]{2})
COMMONMAC (?:(?:[A-Fa-f0-9]{2}:){5}[A-Fa-f0-9]{2})
IPV6 ((([0-9A-Fa-f]{1,4}:){7}([0-9A-Fa-f]{1,4}|:))|(([0-9A-Fa-f]{1,4}:){6}(:[0-9A-Fa-f]{1,4}|((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3})|:))|(([0-9A-Fa-f]{1,4}:){5}(((:[0-9A-Fa-f]{1,4}){1,2})|:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3})|:))|(([0-9A-Fa-f]{1,4}:){4}(((:[0-9A-Fa-f]{1,4}){1,3})|((:[0-9A-Fa-f]{1,4})?:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3}))|:))|(([0-9A-Fa-f]{1,4}:){3}(((:[0-9A-Fa-f]{1,4}){1,4})|((:[0-9A-Fa-f]{1,4}){0,2}:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3}))|:))|(([0-9A-Fa-f]{1,4}:){2}(((:[0-9A-Fa-f]{1,4}){1,5})|((:[0-9A-Fa-f]{1,4}){0,3}:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3}))|:))|(([0-9A-Fa-f]{1,4}:){1}(((:[0-9A-Fa-f]{1,4}){1,6})|((:[0-9A-Fa-f]{1,4}){0,4}:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3}))|:))|(:(((:[0-9A-Fa-f]{1,4}){1,7})|((:[0-9A-Fa-f]{1,4}){0,5}:((25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)(\.(25[0-5]|2[0-4]\d|1\d\d|[1-9]?\d)){3}))|:)))(%.+)?
IPV4 (?<![0-9])(?:(?:[0-1]?[0-9]{1,2}|2[0-4][0-9]|25[0-5])[.](?:[0-1]?[0-9]{1,2}|2[0-4][0-9]|25[0-5])[.](?:[0-1]?[0-9]{1,2}|2[0-4][0-9]|25[0-5])[.](?:[0-1]?[0-9]{1,2}|2[0-4][0-9]|25[0-5]))(?![0-9])
IP (?:%{IPV6}|%{IPV4})
HOSTNAME \b(?:[0-9A-Za-z][0-9A-Za-z-]{0,62})(?:\.(?:[0-9A-Za-z][0-9A-Za-z-]{0,62}))*(\.?|\b)
IPORHOST (?:%{IP}|%{HOSTNAME})
HOSTPORT %{IPORHOST}:%{POSINT}

# paths
PATH (?:%{UNIXPATH}|%{WINPATH})
UNIXPATH (/([\w_%!$@:.,+~-]+|\\.)*)+
TTY (?:/dev/(pts|tty([pq])?)(\w+)?/?(?:[0-9]+))
WINPATH (?>[A-Za-z]+:|\\)(?:\\[^\\?*]*)+
URIPROTO [A-Za-z]([A-Za-z0-9+\-.]+)+
URIHOST %{IPORHOST}(?::%{POSINT:port})?
?

# uripath comes loosely from RFC1738, but mostly from what Firefox
# doesn't turn into %XX

URIPATH (?:/[A-Za-z0-9$.+!*'(){},~:;=@#%&_\-]*)+

#URIPARAM \?(?:[A-Za-z0-9]+(?:=(?:[^&]*))?(?:&(?:[A-Za-z0-9]+(?:=(?:[^&]*))?)?)*)?
URIPARAM \?[A-Za-z0-9$.+!*'|(){},~@#%&/=:;_?\-\[\]<>]*
URIPATHPARAM %{URIPATH}(?:%{URIPARAM})?
URI %{URIPROTO}://(?:%{USER}(?::[^@]*)?@)?(?:%{URIHOST})?(?:%{URIPATHPARAM})?

# Months: January, Feb, 3, 03, 12, December
MONTH \b(?:[Jj]an(?:uary|uar)?|[Ff]eb(?:ruary|ruar)?|[Mm](?:a|?)?r(?:ch|z)?|[Aa]pr(?:il)?|[Mm]a(?:y|i)?|[Jj]un(?:e|i)?|[Jj]ul(?:y)?|[Aa]ug(?:ust)?|[Ss]ep(?:tember)?|[Oo](?:c|k)?t(?:ober)?|[Nn]ov(?:ember)?|[Dd]e(?:c|z)(?:ember)?)\b
MONTHNUM? (?:0?[1-9]|1[0-2])
MONTHNUM2 (?:0[1-9]|1[0-2])
MONTHDAY (?:(?:0[1-9])|(?:[12][0-9])|(?:3[01])|[1-9])

# Days: Monday, Tue, Thu, etc...
DAY (?:Mon(?:day)?|Tue(?:sday)?|Wed(?:nesday)?|Thu(?:rsday)?|Fri(?:day)?|Sat(?:urday)?|Sun(?:day)?)

# Years?
YEAR (?>\d\d){1,2}
HOUR (?:2[0123]|[01]?[0-9])
MINUTE (?:[0-5][0-9])
# '60' is a leap second in most time standards and thus is valid.
SECOND (?:(?:[0-5]?[0-9]|60)(?:[:.,][0-9]+)?)
TIME (?!<[0-9])%{HOUR}:%{MINUTE}(?::%{SECOND})(?![0-9])
# datestamp is YYYY/MM/DD-HH:MM:SS.UUUU (or something like it)
DATE_US %{MONTHNUM}[/-]%{MONTHDAY}[/-]%{YEAR}
DATE_EU %{MONTHDAY}[./-]%{MONTHNUM}[./-]%{YEAR}
ISO8601_TIMEZONE (?:Z|[+-]%{HOUR}(?::?%{MINUTE}))
ISO8601_SECOND (?:%{SECOND}|60)
TIMESTAMP_ISO8601 %{YEAR}-%{MONTHNUM}-%{MONTHDAY}[T ]%{HOUR}:?%{MINUTE}(?::?%{SECOND})?%{ISO8601_TIMEZONE}?
DATE %{DATE_US}|%{DATE_EU}
DATESTAMP %{DATE}[- ]%{TIME}
TZ (?:[APMCE][SD]T|UTC)
DATESTAMP_RFC822 %{DAY} %{MONTH} %{MONTHDAY} %{YEAR} %{TIME} %{TZ}
DATESTAMP_RFC2822 %{DAY}, %{MONTHDAY} %{MONTH} %{YEAR} %{TIME} %{ISO8601_TIMEZONE}
DATESTAMP_OTHER %{DAY} %{MONTH} %{MONTHDAY} %{TIME} %{TZ} %{YEAR}
DATESTAMP_EVENTLOG %{YEAR}%{MONTHNUM2}%{MONTHDAY}%{HOUR}%{MINUTE}%{SECOND}

# Syslog Dates: Month Day HH:MM:SS
SYSLOGTIMESTAMP %{MONTH} +%{MONTHDAY} %{TIME}
PROG [\x21-\x5a\x5c\x5e-\x7e]+
SYSLOGPROG %{PROG:program}(?:\[%{POSINT:pid}\])?
SYSLOGHOST %{IPORHOST}
SYSLOGFACILITY <%{NONNEGINT:facility}.%{NONNEGINT:priority}>
HTTPDATE %{MONTHDAY}/%{MONTH}/%{YEAR}:%{TIME} %{INT}

# Shortcuts
QS %{QUOTEDSTRING}

# Log formats
SYSLOGBASE %{SYSLOGTIMESTAMP:timestamp} (?:%{SYSLOGFACILITY} )?%{SYSLOGHOST:logsource} %{SYSLOGPROG}:

# Log Levels
LOGLEVEL ([Aa]lert|ALERT|[Tt]race|TRACE|[Dd]ebug|DEBUG|[Nn]otice|NOTICE|[Ii]nfo|INFO|[Ww]arn?(?:ing)?|WARN?(?:ING)?|[Ee]rr?(?:or)?|ERR?(?:OR)?|[Cc]rit?(?:ical)?|CRIT?(?:ICAL)?|[Ff]atal|FATAL|[Ss]evere|SEVERE|EMERG(?:ENCY)?|[Ee]merg(?:ency)?)

自定義表達式調(diào)用

語法:(?<field_name>pattern)

舉例:捕獲10或11和長度的十六進制數(shù)的queue_id可以使用表達式(?<queue_id>[0-9A-F]{10,11})

message: 192.168.110.100 GET /index.html 15824 0.043
(?<remote_addr>\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}) (?<http_method>[A-Z]+) (?<request_uri>/.*) (?<response_bytes>[0-9]+) (?<response_time>[0-9\.]+)
filter {grok {match => { "message" => "(?<remote_addr>%{IP}) (?<http_method>[A-Z]+) (?<request_uri>/.*) (?<response_bytes>[0-9]+) (?<response_time>[0-9\.]+)"}}
}


如果表達式匹配失敗,會生成一個tags字段,字段值為 _grokparsefailure,需要重新檢查上邊的match配置解析是否正確。

二、mutate 數(shù)據(jù)修改插件

它提供了豐富的基礎(chǔ)類型數(shù)據(jù)處理能力??梢灾孛?#xff0c;刪除,替換和修改事件中的字段。

Mutate 過濾器常用的配置選項
add_field? ? ? ? ? ? ? 向事件添加新字段,也可以添加多個字段
remove_field ? ? ? ?從事件中刪除任意字段
add_tag?? ? ? ? ? ? ? ?向事件添加任意標(biāo)簽,在tag字段中添加一段自定義的內(nèi)容,當(dāng)tag字段中超過一個內(nèi)容的時候會變成數(shù)組?? ?
remove_tag?? ? ? ? ?從事件中刪除標(biāo)簽(如果存在)
convert? ? ? ? ? ? ?? ? 將字段值轉(zhuǎn)換為另一種數(shù)據(jù)類型
id? ? ? ? ? ? ? ? ? ? ? ? ? 向現(xiàn)場事件添加唯一的ID
lowercase? ? ? ? ? ? ?將字符串字段轉(zhuǎn)換為其小寫形式
replace? ? ? ? ? ? ? ? ?用新值替換字段
strip? ? ? ? ? ? ? ? ? ? ? 刪除開頭和結(jié)尾的空格
uppercase?? ? ? ? ? ?將字符串字段轉(zhuǎn)換為等效的大寫字母
update? ? ? ? ? ? ? ? ? 用新值更新現(xiàn)有字段
rename?? ? ? ? ? ? ? ?重命名事件中的字段
gsub? ? ? ? ? ? ? ? ? ? 通過正則表達式替換字段中匹配到的值
merge? ? ? ? ? ? ? ? ? 合并數(shù)組或 hash 事件
split? ? ? ? ? ? ? ? ? ? ? 通過指定的分隔符分割字段中的字符串為數(shù)組

示例:

●將字段old_field重命名為new_field

filter {mutate {#寫法1,使用中括號括起來rename => ["old_field" => "new_field"]#寫法2,使用大括號{}括起來rename => { "old_field" => "new_field" }?? ??? ?}
}

●添加字段

filter {mutate {add_field => {"f1" => "field1""f2" => "field2"}}
}

●將字段刪除

filter {mutate {remove_field ?=> ?["message", "@version", "tags"]}
}


●將filedName1字段數(shù)據(jù)類型轉(zhuǎn)換成string類型,filedName2字段數(shù)據(jù)類型轉(zhuǎn)換成float類型

filter {mutate {#寫法1,使用中括號括起來convert ?=> ?["filedName1", "string"]#寫法2,使用大括號{}括起來convert => { "filedName2" => "float" }}
}

●將filedName字段中所有"/“字符替換為”_"

filter {mutate {gsub => ["filedName", "/" , "_"]}
}
●將filedName字段中所有",“字符后面添加空格
filter {mutate {gsub => ["filedName", "," , ", "]}
}

●將filedName字段以"|"為分割符拆分數(shù)據(jù)成為數(shù)組

filter {mutate {split => ["filedName", "|"]}
}

●合并 “filedName1” 和 “ filedName2” 兩個字段

filter {merge ?{ "filedName2" => "filedName1" }
}

●用新值替換filedName字段的值

filter {mutate {replace => { "filedName" => "new_value" }}
}

●添加字段first,值為message數(shù)組的第一個元素的值

filter {mutate {split => ["message", "|"]add_field => {"first" => "%{[message][0]}"    } }
}

●有條件的添加標(biāo)簽

filter {#在日志文件路徑包含 access 的條件下添加標(biāo)簽內(nèi)容if [path] =~ "access" {mutate {add_tag => ["Nginx Access Log"]}}

 ?#在日志文件路徑是 /var/log/nginx/error.log 的條件下添加標(biāo)簽內(nèi)容if [path] == "/var/log/nginx/error.log" {mutate {add_tag => ["Nginx Error Log"]}}
}

三、multiline 多行合并插件

java錯誤日志一般都是一條日志很多行的,會把堆棧信息打印出來,當(dāng)經(jīng)過 logstash 解析后,每一行都會當(dāng)做一條記錄存放到 ES, 那這種情況肯定是需要處理的。 這里就需要使用 multiline 插件,對屬于同一個條日志的記錄進行拼接。

2022-11-11 17:09:19.774[XNIo-1 task-1]ERROR com.passjava.controlle .NembercController-查詢用戶 活動數(shù)據(jù)失敗,異常信息為:com.passjava.exception.MemberException: 當(dāng)前沒有配置活動規(guī)則at com.passjava.service.impL.queryAdmin(DailyServiceImpl.java:1444)at com.passjava.service.impl.dailyserviceImpL$$FastcLass
2022-11-11 17:10:56.256][KxNIo-1 task-1] ERROR com.passjava.controlle .NemberControl1er-查詢員工 飯活動數(shù)據(jù)失敗,異常信息為:com.passjava.exception.MemberException: 當(dāng)前沒有配置活動規(guī)則at com.passjava.service.impL.queryAdmin(DailyServiceImpl.java:1444)at com.passjava.service.impL.daiLyserviceImpL$$FastcLass

安裝 multiline 插件

在線安裝插件

cd /usr/share/logstash
bin/logstash-plugin install logstash-filter-multiline

離線安裝插件

先在有網(wǎng)的機器上在線安裝插件,然后打包,拷貝到服務(wù)器,執(zhí)行安裝命令

bin/logstash-plugin prepare-offline-pack --overwrite --output logstash-filter-multiline.zip logstash-filter-multiline
bin/logstash-plugin install file:///usr/share/logstash/logstash-filter-multiline.zip

檢查下插件是否安裝成功,可以執(zhí)行以下命令查看插件列表

bin/logstash-plugin list

使用 multiline 插件

第一步:每一條日志的第一行開頭都是一個時間,可以用時間的正則表達式匹配到第一行。
第二步:然后將后面每一行的日志與第一行合并。
第三步:當(dāng)遇到某一行的開頭是可以匹配正則表達式的時間的,就停止第一條日志的合并,開始合并第二條日志。
第四步:重復(fù)第二步和第三步。

filter {multiline {pattern => "^\d{4}-\d{1,2}-\d{1,2}\s\d{1,2}:\d{1,2}:\d{1,2}.\d{3}"negate => truewhat => "previous"}
}


●pattern:用來匹配文本的表達式,也可以是grok表達式

●what:如果pattern匹配成功的話,那么匹配行是歸屬于上一個事件,還是歸屬于下一個事件。previous: 歸屬于上一個事件,向上合并。next: 歸屬于下一個事件,向下合并

●negate:是否對pattern的結(jié)果取反。false:不取反,是默認值。true:取反。將多行事件掃描過程中的行匹配邏輯取反(如果pattern匹配失敗,則認為當(dāng)前行是多行事件的組成部分)

四、date 時間處理插件

用于分析字段中的日期,然后使用該日期或時間戳作為事件的logstash時間戳。

在Logstash產(chǎn)生了一個Event對象的時候,會給該Event設(shè)置一個時間,字段為“@timestamp”,同時,我們的日志內(nèi)容一般也會有時間,但是這兩個時間是不一樣的,因為日志內(nèi)容的時間是該日志打印出來的時間,而“@timestamp”字段的時間是input插件接收到了一條數(shù)據(jù)并創(chuàng)建Event的時間,所有一般來說的話“@timestamp”的時間要比日志內(nèi)容的時間晚一點,因為Logstash監(jiān)控數(shù)據(jù)變化,數(shù)據(jù)輸入,創(chuàng)建Event導(dǎo)致的時間延遲。這兩個時間都可以使用,具體要根據(jù)自己的需求來定。

filter {date {match => ["access_time", "dd/MMM/YYYY:HH:mm:ss Z", "UNIX", "yyyy-MM-dd HH:mm:ss", "dd-MMM-yyyy HH:mm:ss"]target => "@timestamp"timezone => "Asia/Shanghai"}
}?
  • match:用于配置具體的匹配內(nèi)容規(guī)則,前半部分內(nèi)容表示匹配實際日志當(dāng)中的時間戳的名稱,后半部分則用于匹配實際日志當(dāng)中的時間戳格式,這個地方是整條配置的核心內(nèi)容,如果此處規(guī)則匹配是無效的,則生成后的日志時間戳將會被input插件讀取的時間替代。
  • 如果時間格式匹配失敗,會生成一個tags字段,字段值為 _dateparsefailure,需要重新檢查上邊的match配置解析是否正確。
  • target:將匹配的時間戳存儲到給定的目標(biāo)字段中。如果未提供,則默認更新事件的@timestamp字段。
  • timezone:當(dāng)需要配置的date里面沒有時區(qū)信息,而且不是UTC時間,需要設(shè)置timezone參數(shù)。

時間戳詳解:

●年
yyyy ?#全年號碼。 例如:2015。
yy ? ?#兩位數(shù)年份。 例如:2015年的15。

●月
M ? ? #最小數(shù)字月份。 例如:1 for January and 12 for December.。
MM ? ?#兩位數(shù)月份。 如果需要,填充零。 例如:01 for January ?and 12 for Decembe
MMM ? #縮短的月份文本。 例如: Jan for January。 注意:使用的語言取決于您的語言環(huán)境。 請參閱區(qū)域設(shè)置以了解如何更改語言。
MMMM ?#全月文本,例如:January。 注意:使用的語言取決于您的語言環(huán)境。

●日
d ? #最少數(shù)字的一天。 例如:1月份的第一天1。
dd ?#兩位數(shù)的日子,如果需要的話可以填零.例如:01 for the 1st of the month。

●時
H ? #最小數(shù)字小時。 例如:0表示午夜。
HH ?#兩位數(shù)小時,如果需要填零。 例如:午夜00。

●分
m ? #最小的數(shù)字分鐘。 例如:0。
mm ?#兩位數(shù)分鐘,如果需要填零。 例如:00。

●秒
s ? ?#最小數(shù)字秒。 例如:0。
ss ? #兩位數(shù)字,如果需要填零。 例如:00。

●毫秒( 秒的小數(shù)部分最大精度是毫秒(SSS)。除此之外,零附加。)
S ? ?#十分之一秒。例如:0為亞秒值012
SS ? #百分之一秒 例如:01為亞秒值01
SSS ?#千分之一秒 例如:012為亞秒值012

●時區(qū)偏移或身份
Z ? ?#時區(qū)偏移,結(jié)構(gòu)為HHmm(Zulu/UTC的小時和分鐘偏移量)。例如:-0700。
ZZ ? #時區(qū)偏移結(jié)構(gòu)為HH:mm(小時偏移和分鐘偏移之間的冒號)。 例如:-07:00。
ZZZ ?#時區(qū)身份。例如:America/Los_Angeles。 注意:有效的ID在列表中列出http://joda-time.sourceforge.net/timezones.html


//案例:
192.168.110.100?- - [07/Feb/2022:16:24:19 +0800] “GET /HTTP/1.1” 403 5039

現(xiàn)在我們想轉(zhuǎn)換時間,那就要寫出"dd/MMM/yyyy:HH:mm:ss Z"
你發(fā)現(xiàn)中間有三個M,你要是寫出兩個就不行了,因為兩個大寫的M表示兩位數(shù)字的月份,可是我們要解析的文本中,月份則是使用簡寫的英文,所以只能去找三個M。還有最后為什么要加上個大寫字母Z,因為要解析的文本中含有“+0800”時區(qū)偏移,因此我們要加上去,否則filter就不能正確解析文本數(shù)據(jù),從而轉(zhuǎn)換時間戳失敗。

filter{grok{match => {"message" => ".* -\ -\ \[%{HTTPDATE:timestamp}\]"}}date{match => ["timestamp","dd/MMM/yyyy:HH:mm:ss Z"]}
}

運行結(jié)果:

{"host" => "localhost","timestamp" => "07/Feb/2022:16:24:19 +0800","@timestamp" => 2022-02-07T08:24:19.000Z,"message" => "192.168.80.10 - - [07/Feb/2022:16:24:19 +0800] \"GET /HTTP/1.1\" 403 5039","@version" => "1"
}

在上面那段rubydebug編碼格式的輸出中,@timestamp字段雖然已經(jīng)獲取了timestamp字段的時間,但是仍然比北京時間晚了8個小時,這是因為在Elasticsearch內(nèi)部,對時間類型字段都是統(tǒng)一采用UTC時間,而日志統(tǒng)一采用UTC時間存儲,是國際安全、運維界的一個共識。其實這并不影響什么,因為ELK已經(jīng)給出了解決方案,那就是在Kibana平臺上,程序會自動讀取瀏覽器的當(dāng)前時區(qū),然后在web頁面自動將UTC時間轉(zhuǎn)換為當(dāng)前時區(qū)的時間。

http://aloenet.com.cn/news/38639.html

相關(guān)文章:

  • 自己這么做網(wǎng)站semir是什么牌子
  • 麻涌公司網(wǎng)站建設(shè)公司百度云電腦網(wǎng)頁版入口
  • 電子商務(wù)網(wǎng)站建設(shè)合同范本外包公司排名
  • 自己在線制作logo免費網(wǎng)站北京seo優(yōu)化廠家
  • 公司網(wǎng)站開發(fā)費用計入什么科目營銷公司
  • vs網(wǎng)站中的輪播怎么做軟文寫作技巧有哪些
  • 圖片1600px做網(wǎng)站武漢網(wǎng)優(yōu)化seo公司
  • 企業(yè)網(wǎng)站的建立主要用于企業(yè)內(nèi)部發(fā)布信息鄭州seo公司哪家好
  • 標(biāo)書制作教程視頻網(wǎng)站3322免費域名注冊
  • 網(wǎng)站網(wǎng)址怎么找電商運營培訓(xùn)班多少錢
  • 彩票代購網(wǎng)站建設(shè)電腦優(yōu)化軟件哪個好用
  • 以個人名義可以做網(wǎng)站嗎蘋果自研搜索引擎或為替代谷歌
  • 如果想看網(wǎng)站的收費電影應(yīng)該怎么做惠州關(guān)鍵詞排名提升
  • 怎么把自己做的網(wǎng)站掛到外網(wǎng)上sem代運營
  • 2018年做返利網(wǎng)站網(wǎng)站功能優(yōu)化
  • 仿牌外貿(mào)網(wǎng)站百度搜索高級搜索
  • 做網(wǎng)站是干嘛廈門人才網(wǎng)最新招聘信息
  • 福州市住房和城鄉(xiāng)建設(shè)部網(wǎng)站seo是什么意思怎么解決
  • 建立英文網(wǎng)站搜索引擎優(yōu)化到底是優(yōu)化什么
  • 網(wǎng)站建設(shè)技術(shù)人員要會什么企業(yè)查詢官網(wǎng)入口
  • 疫情最新資訊seo費用
  • 什么是php動態(tài)網(wǎng)站開發(fā)知名的網(wǎng)絡(luò)推廣
  • 金藏源電商網(wǎng)站建設(shè)怎樣免費制作網(wǎng)頁
  • 時尚網(wǎng)站哪里有整站優(yōu)化
  • 上海企業(yè)網(wǎng)站建設(shè)公谷歌paypal官網(wǎng)注冊入口
  • 可以做商城網(wǎng)站的公司嗎中國國家培訓(xùn)網(wǎng)官網(wǎng)入口
  • 網(wǎng)站背景css培訓(xùn)心得簡短
  • 科技網(wǎng)站設(shè)計公司西安網(wǎng)站建設(shè)哪家好
  • 福建省建設(shè)執(zhí)業(yè)繼續(xù)教育網(wǎng)站百度關(guān)鍵詞點擊器
  • 做網(wǎng)站收藏的網(wǎng)頁搜索熱門關(guān)鍵詞