用 Python写 daemon
转自
http://chowroc.blogspot.com/2007/05/python-how-to-write-daemon.html
最近用 Python 可能要写 daemon,找资料先看看。参照《UNIX 环境高级编程》第十三章:
(1) 首先做的是调用 fork,然后使父进程 exit。这样做实现了下面几点:
第一,如果该精灵进程是由一条简单 shell 命令起动的,那么使父进程终止使得 shell 认为这条命令已经执行完成。
第二,子进程继承了父进程的进程组 ID,但具有一个新的进程 ID,这就保证了子进程不是一个
进程组的首进程。这对于下面就要做的 setsid 调用是必要的前提条件。
(2) 调用 setsid 以创建一个新对话期。于是执行 9.5 节中列举的三个操作,使调用进程:
(a). 成为新对话期的首进程,(b) 成为一个新进程组的首进程,(c) 没有控制终端。
在 SVR 之下,有些人建议在此时再调用 fork,并使父进程终止。第二个子进程作为精灵进程继续运行。这样就保证了该精灵进程不是对话期首进程,于是按照 SVR4 规则(见9.6节)可以防止它取得控制终端。另一方面,为了避免取得控制终端,无论何时打开一个中断设备都要指定 O_NOCTTY。
(3) 将当前工作目录更改为根目录。从父进程继承过来的当前工作目录可能在一个装配的文件系统中。因为精灵进程通常在系统再引导之前是一直存在的,所以如果精灵 进程的当前工作目录在一个装配文件系统中,那么该文件系统就不能被拆卸。另外,某些精灵进程可能会把当前工作目录更改到某个指定位置,在此位置做它们的工 作。例如,行式打印机假脱机精灵进程常常将其工作目录更改到它们的 spool 目录上。
(4) 将文件方式创建屏蔽字设置为0。由继承得来的文件方式创建屏蔽字可能会拒绝设置某些许可权。例如,若精灵进程要创建一个组可读、写的文件,而继承的文件方式创建屏蔽字,屏蔽了这两种许可权,则所要求的组可读、写就不能起作用。
(5) 关闭不再需要的文件描述符。这样使精灵进程就不再持有从其父进程继承来的某些文件描述符(父进程可能是 shell 进程,或某个其他进程)。但是,究竟关闭哪些描述符则与具体的精灵进程有关,所以在下面的例子中不包含此步骤。可以使用程序2-3中的 open_max 函数来决定最高文件描述符值,并关闭直到该值的所有描述符。
一个 Python 的实例如下:
http://aspn.activestate.com/ASPN/Cookbook/Python/Recipe/66012
import sys, os
def main():
""" A demo daemon main routine, write a datestamp to
/tmp/daemon-log every 10 seconds.
"""
import time
f = open("/tmp/daemon-log", "w")
while 1:
f.write('%s/n' % time.ctime(time.time()))
f.flush()
time.sleep(10)
if __name__ == "__main__":
# do the UNIX double-fork magic, see Stevens' "Advanced
# Programming in the UNIX Environment" for details (ISBN 0201563177)
try:
pid = os.fork()
if pid > 0:
# exit first parent
sys.exit(0)
except OSError, e:
print >>sys.stderr, "fork #1 failed: %d (%s)" % (e.errno, e.strerror)
sys.exit(1)
# decouple from parent environment
os.chdir("/")
os.setsid()
os.umask(0)
# do second fork
try:
pid = os.fork()
if pid > 0:
# exit from second parent, print eventual PID before
print "Daemon PID %d" % pid
sys.exit(0)
except OSError, e:
print >>sys.stderr, "fork #2 failed: %d (%s)" % (e.errno, e.strerror)
sys.exit(1)
# start the daemon main loop
main()
注意还有一个很重要的事情就是出错记录,即写入日志。比较好的方法可能是使用 syslog 设施。
hadoop大数据相关