折腾原因
之前都是远程连接服务器,然后在命令行运行scrapy crawl spider,一旦关闭远程连接,爬虫就会停止,很不爽,毕竟能让一个爬虫在服务器一直跑才是每个小白的梦想= =,所以开始研究如何使程序在后台运行,刚开始看了scrapyd,感觉不好用,又搜了搜,发现了supervisor这个python进程管理程序。
supervisor简介
Supervisor是用Python开发的一套通用的进程管理程序,能将一个普通的命令行进程变为后台daemon,并监控进程状态,异常退出时能自动重启。它是通过fork/exec的方式把这些被管理的进程当作supervisor的子进程来启动,这样只要在supervisor的配置文件中,把要管理的进程的可执行文件的路径写进去即可。也实现当子进程挂掉的时候,父进程可以准确获取子进程挂掉的信息的,可以选择是否自己启动和报警。supervisor还提供了一个功能,可以为supervisord或者每个子进程,设置一个非root的user,这个user就可以管理它对应的进程。
安装supervisor
我的系统是centos7所以运行以下命令
# yum install supervisor
等待安装完后,进入/ect目录,主要看如下两个文件。
supervisord.conf为主配置文件,可以打开看一下,不用更改,supervisord.d为子进程的配置文件夹,存放在这里的配置文件在程序启动后会自动读取该文件夹下的文件,我们进入这个文件夹,创建一个子进程文件,名为awesome.ini,内容如下:
[program:awesome]
command = shell.py
directory = /python/scrapy
user = root
startsecs = 3
redirect_stderr = true
stdout_logfile_maxbytes = 50MB
stdout_logfile_backups = 10
stdout_logfile = /log/app.log
说明:
command:为要后台运行的shell命令
directory:指定command命令要执行的文件夹
user:执行命令的用户
stdout_logfile:程序运行的日志,报错可以在这里看。
创建好子进程文件后,运行如下命令解锁程序:
# sudo unlink /run/supervisor.sock
再运行以下命令运行程序启动爬虫:
# supervisord
运行成功会有如下提示:
/usr/lib/python2.7/site-packages/supervisor/options.py:296: UserWarning: Supervisord is running
as root and it is searching for its configuration file in default locations (including it
s current working directory); you probably want to specify a "-c" argument specifying an absolute path to a configuration file for improved security.
'Supervisord is running as root and it is searching '
进程管理的相关命令
1) 查看所有子进程的状态:
# supervisorctl status
awesome RUNNING pid 2395, uptime 0:08:41
2)关闭、开启指定的子进程:
# supervisorctl stop zhoujy
awesome: stopped
3)关闭、开启所有的子进程:
# supervisorctl stop all
awesome: stopped
# supervisorctl start all
awesome: started
总结
终于可以愉快的爬虫了呢!OvO
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。