欢迎访问华乐美文网

centos6日志

日志2019-07-09 13:14书业网

篇一:Centos 6抓取DSET日志方法

Centos 6抓取DSET日志方法

vi /etc/issue添加如下一行

安装几个依赖包

yum install libcmpiCppImpl0 libwsman1 sblim-sfcb sblim-sfcc 运行DSET工具

./dell-dset-lx64-3.4.0.137.bin

先按几下安格把说明文档“看完”,然后“选2”,创建日志

如图选择,并输入root密码

然后把ZIP包发给DELL

篇二:Centos下重要日志文件及查看方式

Centos下重要日志文件及查看方式 (2014-01-02 12:56:34)

转载?

1、Linux下重要日志文件介绍

/var/log/boot.log

该文件记录了系统在引导过程中发生的事件,就是Linux系统开机自检过程显示的信息,如图

1所示:

图1 /var/log/boot.log示意

/var/log/cron

该日志文件记录crontab守护进程crond所派生的子进程的动作,前面加上用户、登录时间和PID,以及派生出的进程的动作。CMD的一个动作 是cron派生出一个调度进程的常见情况。REPLACE(替换)动作记录用户对它的cron文件的更新,该文件列出了要周期性执行的任务调度。 RELOAD动作在REPLACE动作后不久发生,这意味着cron注意到一个用户的cron文件被更新而cron需要把它重新装入内存。该文件可能会查 到一些反常的情况。该文件的示意请见图2:

图2 /var/log/cron文件示意

/var/log/maillog

该日志文件记录了每一个发送到系统或从系统发出的电子邮件的活动。它可以用来查看用户使用哪个系统发送工具或把数据发送到哪个系统。图3所示是该日志文件的片段:

图3 /var/log/maillog文件示意

该文件的格式是每一行包含日期、主机名、程序名,后面是包含PID或内核标识的方括号、一个冒号和一个空格,最后是消息。该文件有一个不足,就是被记 录的入侵企图和

成功的入侵事件,被淹没在大量的正常进程的记录中。但该文件可以由/etc/syslog文件进行定制。由/etc /syslog.conf配置文件决定系统如何写入/var/messages。

/var/log/syslog

默认Fedora不生成该日志文件,但可以配置/etc/syslog.conf让系统生成该日志文件。它和/etc/log/messages日志 文件不同,它只记录警告信息,常常是系统出问题的信息,所以更应该关注该文件。要让系统生成该日志文件,在/etc/syslog.conf文件中加 上:*.warning /var/log/syslog 该日志文件能记录当用户登录时login记录下的错误口令、Sendmail的问题、su命令执行失败等信息。该日志文件记录最近成功登录的事件和最后一 次不成功的登录事件,由login生成。在每次用户登录时被查询,该文件是二进制文件,需要使用lastlog命令查看,根据UID排序显示登录名、端口 号和上次登录时间。如果某用户从来没有登录过,就显示为"**Never logged in**"。该命令只能以root权限执行。简单地输入lastlog命令后就会看到类似图4的信息:

图4 lastlog命令的运行结果

/var/log/wtmp

该日志文件永久记录每个用户登录、注销及系统的启动、停机的事件。因此随着系统正常运行时间的增加,该文件的大小也会越来越大,增加的速度取决于系统 用户登录的次数。该日志文件可以用来查看用户的登录记录,last命令就通过访问这个文件获得这些信息,并以反序从后向前显示用户的登录记录,last也 能根据用户、终端tty或时间显示相应的记录。

/var/run/utmp

该日志文件记录有关当前登录的每个用户的信息。因此这个文件会随着用户登录和注销系统而不断变化,它只保留当时联机的用户记录,不会为用户保留永久的 记录。系统中需要查询当前用户状态的程序,如 who、w、users、finger等就需要访问这个文件。该日

志文件并不能包括所有精确的信息,因为某些突发错误会终止用户登录会话,而系统没有及时 更新 utmp记录,因此该日志文件的记录不是百分之百值得信赖的。

以上提及的3个文件(/var/log/wtmp、/var/run/utmp、/var/log/lastlog)是日志子系统的关键文件,都记录 了用户登录的情况。这些文件的所有记录都包含了时间戳。这些文件是按二进制保存的,故不能用less、cat之类的命令直接查看这些文件,而是需要使用相 关命令通过这些文件而查看。其中,utmp和wtmp文件的数据结构是一样的,而lastlog文件则使用另外的数据结构,关于它们的具体的数据结构可以 使用man命令查询。每次有一个用户登录时,login程序在文件lastlog中查看用户的UID。如果存在,则把用户上次登录、注销时间和主机名写到标准输出中,然后 login程序在lastlog中记录新的登录时间,打开utmp文件并插入用户的utmp记录。该记录一直用到用户登录退出时删除。utmp文件被各种 命令使用,包括who、w、users和finger。

下一步,login程序打开文件wtmp附加用户的utmp记录。当用户登录退出时,具有更新时间戳的同一utmp记录附加到文件中。wtmp文件被程序last使用。

/var/log/xferlog

该日志文件记录FTP会话,可以显示出用户向FTP服务器或从服务器拷贝了什么文件。该文件会显示用户拷贝到服务器上的用来入侵服务器的恶意程序,以及该用户拷贝了哪些文件供他使用。

该文件的格式为:第一个域是日期和时间,第二个域是下载文件所花费的秒数、远程系统名称、文件大小、本地路径名、传输类型(a:ASCII,b:二进 制)、与压缩相关的标志或tar,或"_"(如果没有压缩的话)、传输方向(相对于服务器而言:i代表进,o代表出)、访问模式(a:匿名,g:输入口 令,r:真实用户)、用户名、服务名(通常是ftp)、认证方法(l:RFC931,或0),认证用户的ID或"*"。图5是该文件的部分显示:

图5 /var/log/xferlog文件示意

篇三:如何查看配置Ubuntu和Centos的系统日志

如何查看配置Ubuntu和Centos的系统日志

内容来源于PPPCloud官网教程 介绍

Linux系统管理员经常需要查看日志文件用于故障诊断。事实上,这是任何系统管理员都将做的第一件事。在本教程中,我们将看看Linux日志记录机制。 默认文件位置

默认的日志文件位置:在Linux默认位置是

/var/log日志文件。您可以用一个简单的ls - l /var/log命令查看日志文件的目录列表。

查看文档内容

下面是一些常见的日志文件,

他们都在默认的log路径下面

? wtmp

最后一个命令告诉我们登录用户的历史:

篇四:CentOS6.5安装elasticsearch+logstash+kibana

CentOS6.5 安装 elasticsearch+logstash+kibana 部署中心节点如果有防火墙需要放开这些端口:? ? ?port 80 (for the web interface) port 5544 (to receive remote syslog messages) port 9200 (so the web interface can access elasticsearch)安装 java 环境和 Apache 服务yum install -y java-1.7.0-openjdk httpd安装 ES 环境 elasticsearch (JVM 版本建议: Java 8 update 20 or later, or Java 7 update 55 or later)wget https://download.elastic.co/elasticsearch/elasticsearch/elasticsearch-1. 6.0.noarch.rpm && yum install elasticsearch-1.6.0.noarch.rpm -y安装 logstash 环境wget https://download.elastic.co/logstash/logstash/packages/centos/logstash-1 .5.1-1.noarch.rpm && yum install logstash-1.5.1-1.noarch.rpm -y安装 kibana 环境wget && https://download.elasticsearch.org/kibana/kibana/kibana-3.1.2.zip mv kibana-3.1.2 /var/www/html/kibanaunzip kibana-3.1.2.zip &&安装 elasticsearch 插件

cd /usr/share/elasticsearch/ &&./bin/plugin -installmobz/elasticsearch-head && ./bin/plugin -install lukas-vlcek/bigdesk/2.5.0修改 elasticsearch 配置文件vim /etc/elasticsearch/elasticsearch.yml cluster.name: elasticsearch 去掉前面”#”号 http.cors.enabled: true http.cors.allow-origin: “http://192.168.215.101”启动 elasticsearch/etc/rc.d/init.d/elasticsearch start测试 elasticsearch[root@localhost ~]# curl 127.0.0.1:9200 { "status" : 200, "name" : "Agamotto", "cluster_name" : "elasticsearch", "version" : { "number" : "1.4.1", "build_hash" : "89d3241d670db65f994242c8e8383b169779e2d4", "build_timestamp" : "2015-11-26T15:49:29Z", "build_snapshot" : false, "lucene_version" : "(来自:WWw.cssyq.Com 书业网:centos6日志);4.10.2" }, "tagline" : "You Know, for Search" } [root@localhost ~]#配置 logstash,如下是 Logstash 的配置文件[root@localhost conf.d]# vim /etc/logstash/conf.d/logstasg_access.conf input { file { type => "apache" path => ["/etc/httpd/logs/*_log","/var/log/nginx/*.log"] }

file { type => "syslog" path => [ "/var/log/messages", "/var/log/syslog" ] } file { type => "nova" path => [ "/var/log/nova/*.log" ] } file { type => "cinder" path => [ "/var/log/cinder/*.log" ] } file { type => "neutron" path => [ "/var/log/neutron/*.log" ] } file { type => "ceilometer" path => [ "/var/log/ceilometer/*.log" ] } } filter { if [type] == "syslog" { grok { match => { "message" => "%{SYSLOGTIMESTAMP:syslog_timestamp} %{SYSLOGHOST:syslog_hostname } %{DATA:syslog_program}(?:\[%{POSINT:syslog_pid}\])?: %{GREEDYDA TA:syslog_message}" } add_field => [ "received_at", "%{@timestamp}" ] add_field => [ "received_from", "%{host}" ] } syslog_pri { } date { match => [ "syslog_timestamp", "MMM d HH:mm:ss", "MMM dd HH:mm:ss" ] } }else if [type] == "apache" { if [path] =~ "access" { mutate { replace => { loglevel => "apache_access" } } grok { match => { "message" => "%{COMBINEDAPACHELOG}" }

} date { match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ] } } else if [path] =~ "error" { mutate { replace => { loglevel => "apache_error" } } } else { mutate { replace => { loglevel => "apache_random_logs" } } } }else { grok { match => ["message","%{TIMESTAMP_ISO8601:logtime} %{NUMBER:pid} %{WORD:log level} %{DATA:process} %{GREEDYDATA:other}"] } } } output { stdout { codec => rubydebug } elasticsearch_http { host => "192.168.215.101" port => "9200" } }启动 logstash[root@localhost bin]#/opt/logstash/bin/logstash -f /etc/logstash/conf.d/logstasg_access.conf配置 kibanavim /var/www/html/kibana/config.js 修改其中一行 es 的 IP 地址为 ES 服务器的 IP 地址 elasticsearch: "http://192.168.215.101:9200”,apache 配置如下:<VirtualHost 192.168.215.101:80>

ServerAdmin admin@opsnotes.com DocumentRoot /var/www/html/kibana ServerName kibana.opsnotes.net ErrorLog logs/kibana.opsnotes.net-error_log CustomLog logs/kibana.opsnotes.net-access_log common </VirtualHost>启动 apache/etc/rc.d/init.d/httpd start完成之后 会在 logstash 中看到如下文件![elk](/img/ELK1.png)http://92.168.215.101 web 页面中展示elk

Copyright @ 2012-2024华乐美文网 All Rights Reserved. 版权所有