日志检测发现Checkpoint not complete【转载】

1.检查告警日志发现Checkpoint not complete

报错如下:

Sat May 21 07:36:43 2016

Thread 1 cannot allocate new log, sequence 6672

Checkpoint not complete

  Current log# 2 seq# 6671 mem# 0: /home/oracle/app/oracle/oradata/qianlong/redo02.log

Sat May 21 07:36:58 2016

Thread 1 cannot allocate new log, sequence 6672

Private strand flush not complete

  Current log# 2 seq# 6671 mem# 0: /home/oracle/app/oracle/oradata/qianlong/redo02.log

Thread 1 advanced to log sequence 6672 (LGWR switch)

  Current log# 3 seq# 6672 mem# 0: /home/oracle/app/oracle/oradata/qianlong/redo03.log

        

         看见报错,并且日志切换特别频繁,第一反映就是应该增加redo日志大小。网上找了相关报错解决方法也都是建议增加redo日志大小。

 

----查看日志切换时间:

SQL> select sequence#,first_time,nexttime,round(((first_time-nexttime)*24)*60,2) diff from (select sequence#,first_time,lag(first_time) over(order by sequence#) nexttime from v$log_history where thread#=1 and to_char(first_time,'yyyy-mm-dd')='2016-05-23')  order by sequence# desc;

 

----每天日志切换数量

select to_char(first_time,'yyyy-mm-dd') day1,count(*)

    from v$log_history

      where first_time>=to_date('2016-05-03','yyyy-mm-dd')

      group by to_char(first_time,'yyyy-mm-dd') order by day1;

2.问题分析

--------------来自DAVE的分析 

         CKPT这个后台进程就是做checkpoint这件事,checkpoint被触发的条件之一是就发生redo log switch,Checkpoint的具体工作包括: 

         触发DBWr向磁盘写入dirty data。 把checkpoint信息更新到datafile header和control file里。 

 

         Checkpoint做的事情之一是触发DBWr把buffer cache中的dirty cache写入磁盘。另外就是把最近的系统的SCN更新到datafile header和control file(每一个事务都有一个SCN),做第一件事的目的是为了减少由于系统突然宕机而需要的恢复时间,做第二件事实为了保证数据库的一致性。 

 

  而redo log switch就是触发checkpoint的主要的事件(event) ,当第一组redo log被用完之后,Oracle就要停止使用当前的redo log,转而使用另一组redo log,这就叫做log switch。而log switch触发checkpoint。 

 

2.1出现checkpoint not complete原因:

         假设我们只有两个redo log group:group 1和group 2,并且buffer cache中总是有大量的dirty block需要写入datafile,当redo log从group 1 switch to group 2的时候,会触发checkpoint, checkpoint要求DBWr把buffer cache中的dirty block写入datafile。然而,当我们再次用完group 2里面的空间,需要再次switch to group 1并重用group 1的时候,如果我们发现redo log group 1所保护的那些dirty block还没有完全写入到datafile,整个数据库必须等待DBWr把所有的dirty block写入到datafile之后才能做其他的事情,这就是我们遇到的"checkpoint not complete"问题。

 

         解决办法包括增加redo日志组合增大online redo log文件大小,为DBRr争取充裕的时间。

 

2.2出现cannot allocate new log原因:

         Checkpoint will flush dirty block to datafile, 从而触发DBWn书写dirty buffer,等到redo log覆盖的dirty block全部被写入datafile后才能使用redo log(循环使用),如果DBWn写入过慢,LGWR必须等待DBWn完成,则这时会出现“checkpoint not completed!”。 所以当出现checkpoint not competed的时候,还会伴随cannot allocate new log的错误。

 

         在出现这个错误的时候,数据库是短暂hang住的,等待checkpoint的完成。 在hang住的时候,没有日志产生。

 

2.3 Tom大师对这个问题的解释如下:

the infamous "checkpoint not complete, cannot allocate new log" message.

this occurrs when Oracle attempts to reuse a log file but the checkpoint that would flush

the blocks that may have redo in this log file has not yet completed -- we must wait

until that checkpoint completes before we can reuse that file -- thats when this message is printed. during this time (when we cannot allocate a new log) processing is suspended in the database while the checkpoint is made to complete ASAP.

---- 我们必须等待checkpoint 的完成, 在这个过程中, 数据库是短暂的hang住的。

The major way to relieve this is to have sufficient log to carry you through peak times. that way, we can complete the checkpoint while you are not busy. also make sure your checkpoints happen as fast as they can (eg: enable ASYNC IO or configure >1 DBWR if ansyc IO cannot be used, make sure disks are not contending with other apps and so on)

Another way is to make the log files smaller, hence increasing the frequency with which we checkpoint (log checkpoint interval and other init.ora parameters achieve the same effect btw).

----这个主题使DBA能对checkpoint和checkpoint优化的参数有一个较好的理解:

- FAST_START_MTTR_TARGET

- LOG_CHECKPOINT_INTERVAL

- LOG_CHECKPOINT_TIMEOUT

- LOG_CHECKPOINTS_TO_ALERT

它也解释了怎样解释和处理出现在ALERT.LOG file中的checkpoint的错误"'Checkpoint not Complete' and 'Cannot Allocate New Log"。

 

3.什么是checkpoint

3.1 checkpoint原理分析

Checkpoint是为了内存中已经被修改的数据块与磁盘数据文件同步的一种数据库事件。它提供了一种保持事务提交以后数据一致的手段。往Oracle磁盘写脏数据的机制与事务提交不是同步的。

checkpoint有两个目的:

1、确保数据一致性。

2、使数据库能快速地恢复。

 

怎样快速恢复

因为数据库会把所有的改变都在数据文件上设置checkpoint并一直增加,它不需要请求checkpoint之前的重做日志,Checkpoint能保证所有在缓存区的数据写到相应的数据文件,防止因为意外的实例失败导致的数据丢失。

 

Oracle写这个脏数据的条件下:

1、DBWR 超时,大约3秒时间

2、系统中没有多的空缓冲区来存放数据

3、CKPT进程(产生新的checkpoint) 触发DBWR

4、表级别的truncate或drop也会触发数据写

5、修改表空间为read only

6、做表空间的offline

7、热备份begin backup命令

 

一个checkpoint有5种事件类型:

1、每次重做日志的切换;

2、LOG_CHECKPOINT_TIMEOUT 这个延迟参数的到达

3、相应字节(LOG_CHECKPOINT_INTERVAL* size of IO OS blocks)被写到当前的重做日志

4、ALTER SYSTEM SWITCH LOGFILE 这个命令会直接导致checkpoint发生

5、ALTER SYSTEM CHECKPOINT

 

Checkpoint期间会有下面进程发生:

1、DBWR写所有脏数据到数据文件;

2、LGWR更新控制文件和数据文件的SCN。

 

3.2 Checkpoints和优化:

Checkpoints是一个数据库优化的难点。频繁的Checkpoints可以实现快速的恢复,但也会使性能下降。怎样处理这个问题呢?

依赖于数据库数据文件的数量,一个Checkpoint可能是高速的运行。因为所有的数据文件在Checkpoint期间都会被冻结。更频繁的Checkpoints可以快速恢复数据库。这也客户对不按规定系统宕机的容忍的原因。然而,在一些特殊情况下,频繁的Checkpoints也不能保证可以快速恢复。我们假设数据库在95%的时间内是正常运行,5%由于实例失败导致不可用,要求恢复。对大多数客户而言,他们更希望调整95%的性能而不是5%的宕机时间。这个假设表明,性能是摆在第一位的,所以我门的目标就是在优化期间减少Checkpoints的频繁度。

 

优化Checkpoints包括4个关键的初始化参数:

FAST_START_MTTR_TARGET

LOG_CHECKPOINT_INTERVAL

LOG_CHECKPOINT_TIMEOUT

LOG_CHECKPOINTS_TO_ALERT

 

详细介绍每个参数:

1、FAST_START_MTTR_TARGET

Oracle9i以来FAST_START_MTTR_TARGET 参数是调整checkpoint的首选的方法。FAST_START_MTTR_TARGET 可以指定单实例恢复需要的秒数。基于内部的统计,增长的checkpoint会自动调整的checkpint的目标以满足FAST_START_MTTR_TARGET 的需求。

 

V$INSTANCE_RECOVERY中ESTIMATED_MTTR 显示当前估计需要恢复的秒数。这个值会被显示即使FAST_START_MTTR_TARGET 没有被指定。

sys@ORCL>select estimated_mttr from v$instance_recovery;

ESTIMATED_MTTR

--------------

            11

 

V$INSTANCE_RECOVERY中TARGET_MTTR 表明在短时间内MTTR的目标。

V$MTTR_TARGET_ADVICE 显示这个当前MTTR设置的工作量产生的I/O数量和其他I/O。这个视图帮助用户评定这个在优化和恢复之前的平衡。

 

 

2、LOG_CHECKPOINT_INTERVAL

LOG_CHECKPOINT_INTERVAL 参数指定这个最大的重做块的间隔数目。如果FAST_START_MTTR_TARGET被指定,LOG_CHECKPOINT_INTERVAL不能被设置为0。

 

在大多数Unix系统的OS块大小是512字节。设置LOG_CHECKPOINT_INTERVAL=10000意味着这个增长的checkpoint不能追加到当前日志,因为多于5M。如果你的重做日志是20M,你将发出4个checkpoint对每个重做日志。

 

LOG_CHECKPOINT_INTERVAL 会发生影响当一个checkpoint发生时,小心设置这个参数,保持它随着重做日志文件大小变化而变化。checkpoint频繁是这个影响数据库恢复的原因之一。短的checkpoint间隔意味数据库将快速恢复,也增加了资源的利用。这个参数也影响数据库向前回滚的时间。实际的恢复时间是基于这个时间,当然还有失败的类型和需要归档日志的数量。

 

 

3、LOG_CHECKPOINT_TIMEOUT

这个参数指定checkpoint发出的时间间隔。换句话说,它指定一次脏数据多少时间写出一次。checkpoint频率会影响这个数据库恢复的时间。长时间的间隔会要求数据库恢复要求更久。Oracle建议用LOG_CHECKPOINT_interval去控制checkpoint而不用LOG_CHECKPOINT_TIMEOUT,LOG_CHECKPOINT_TIMEOUT每n秒发一次checkpoint,不顾事务提交的频率。这可能会导致一些没有必要的checkpoint在事务已经变化的情况下。不必要的checkpoint必须被避免。还有一个容易误解的地方:LOG_CHECKPOINT_TIMEOUT 会间隔性地发出log switch。而Log switch会触发一个checkpoint,但checkpoint不会导致一个log switch。唯一手工方式alter system switch logfile或者重新设置redo logs大小可以导致频繁switch。

SQL> alter system set log_checkpoint_timeout=300;[单位是秒]

log_checkpoint_to_alert:

设置为真,可以在告警日志中观察到增量检查点的触发。

SQL> alter system set log_checkpoints_to_alert=true;

对于优化和恢复, 在线重做日志的大小是关键的。

修改Redo log 大小的操作方法:

查看当前日志组状态:

SQL> select group#,sequence#,bytes,members,status from v$log;

GROUP# SEQUENCE# BYTES MEMBERS STATUS

---------- ---------- ---------- ---------- ----------------

1 14230 52428800 1 ACTIVE

2 14231 52428800 1 CURRENT

3 14229 52428800 1 INACTIVE

CURRENT: 表示是当前的日志。

INACTIVE:脏数据已经写入数据块。该状态可以drop。

ACTIVE: 脏数据还没有写入数据块。

查看当前日志组成员:

SQL> select member from v$logfile;

MEMBER

--------------------------------------------------------------------------------

/u03/oradata/newccs/redo03.log

/u03/oradata/newccs/redo02.log

/u03/oradata/newccs/redo01.log

添加online redo log组:

SQL> alter database add logfile group 4 ('/u03/oradata/newccs/redo04.log') size 100m reuse;

SQL> alter database add logfile group 5 ('/u03/oradata/newccs/redo05.log') size 100m reuse;

SQL> alter database add logfile group 6 ('/u03/oradata/newccs/redo06.log') size 100m reuse;

切换归档日志:

SQL> alter system switch logfile;

查看归档文件的状态,因为只有Inactive的我们才可以drop,它的数据块已经写入了数据块。如果是Active状态,表示这里的脏数据还没有写入写入数据库,手工加个全局检查点,督促CKPT马上唤醒DBWR写入脏数据

SQL>alter system checkpoint;

SQL> select group#,sequence#,bytes,members,status from v$log;

GROUP# SEQUENCE# BYTES MEMBERS STATUS

---------- ---------- ---------- ---------- ----------------

1 14230 52428800 1 ACTIVE

2 14231 52428800 1 ACTIVE

3 14229 52428800 1 INACTIVE

4 14229 52428800 1 CURRENT

5 14229 52428800 1 UNUSED

6 14229 52428800 1 UNUSED

因为5,6 我们还没有用,所以显示为UNUSED

删除redo log组:

SQL> alter database drop logfile group 1;

Database altered.

或者:

SQL> alter database drop logfile '/u03/oradata/newccs/redo01.log';

在添加redo log group 1.

SQL> alter database add logfile group 1 ('/u03/oradata/newccs/redo01.log') size 100m reuse;

通过删除在添加,达到对redo log group 的resize.

注意两点

1、单纯加redo log group单个文件的大小没有作用,同一个group里,文件大小都是一致的。

2、如果是归档模式的话,确保已经自动归档,如果手动归档的话,需要在alter system switch logfile锁死的时候,用alter system log current 来手动归档。或者通过alter system archive log start打开自动归档。否则的话,当redo log group切换完整个groups的时候,会一直等待状态(******)。

3、《Oracle DBA必备技能详解》(Robert G.Freeman),上面建议redo log 最好是15分钟切换一次。

 

   http://blog.csdn.net/tianlesoftware/article/details/4908066

 

posted @ 2021-07-14 21:59  雪竹子  阅读(402)  评论(0编辑  收藏  举报