现在线上系统的架构大致是这样的,除去cache的proxy机器外,还有项目的nginx proxy机器,后面跟nginx webserver + php-fpm 。有时候,会看到proxy nginx的日志里面会有各种异常状态码 , 比如499 , 502 , 504等,这些都是什么情况导致的呢?
架构示意
nginx proxy => nginx webserver => php-fpm
状态码说明
499:客户端(或者proxy)主动断开连jie502:网关错误(Bad Gateway)504:网关超时:(Gateway Timeout)1 proxy和webserver不能连接
1.1 proxy_pass ip不存在:
这时候会重复发送arp解析协议,约3秒后超时,proxy返回码为502 。
1.2 proxy_pass ip存在:
webserver机器上端口上没有对应服务;
webserver所在机器的内核会直接返回RESET包,没有额外超时,proxy返回码为502 。
webserver机器端口上有服务,但是iptables DROP了proxy的包;
因为webserver drop(iptables -I INPUT -s xxx.xxx.xxx.xxx -j DROP)了proxy的包,proxy会TCP连接不断重试,默认会重试60秒后proxy返回码504,这个重试时间60秒由参数proxy_connect_timeout指定,重试间隔就是TCP的重试间隔(1,2,4…) 。
The timeout is set only between two successive read operations,not for the transmission of the whole response.
意思是说并非response的传输超时 , 而是两次读操作之间的间隔超时 。比如在proxy中设置proxy_read_timeout=10,而测试的test.php 如下:
<?phpsleep(7);echo \”haha\”;ob_flush();flush();sleep(7);echo \”haha after 7s\”;?>
这整个请求的响应时间是14秒,其实是不会超时的,因为相邻两次读操作的间隔是7秒小于10秒 。注意代码中的ob_flush()和flush()两个函数,其中ob_flush()是为了刷php的缓存,flush()则是为了刷系统层面的缓存 。将/etc/php5/fpm/php.ini中设置output_buffering=off,则可以不用调用ob_flush()了,但是flush()还是需要的 。如果不flush的话,php会等到整个响应完成才会将数据返回给webserver,webserver再返回给proxy , 在没有返回整个响应之前(14秒才能返回),超过了 proxy_read_timeout的10秒,此时,proxy会关闭和webserver的连接,导致出现504错误 。为了这个测试test.php不超时 , webserver的nginx还要加一个配置fastcgi_buffering off,因为虽然我们的php返回了数据了,但是webserver的nginx还是缓存了fastcgi的返回,导致没有及时将数据返回给proxy,从而超时 。
php.ini文件
在如上面配置好后,可以发现,浏览器输出了hahahaha after 7s那么问题来了,这两个字符串是同时输出的 , 并没有像代码中那样隔了7秒,那这个问题是什么导致的呢?答案是proxy的nginx也有缓存配置,需要关闭才能看到先后输出两个字符串的效果 。nginx proxy的缓存配置为proxy_buffering off,这样你就能看到先后输出两个字符串的效果了 。
2.2 php执行时间超过webserver的fastcgi_read_timeout:
设置fastcgi_read_timeout=10,test.php执行时间100秒,则10秒后webserver会关闭和PHP的连接,webserver记录日志的返回码为 504,proxy日志的返回码也是 504 。
2.3 php执行时间超过php-fpm的request_terminate_timeout:
设置request_terminate_timeout=5,test.php还是执行100秒,可以发现5秒之后 , php-fpm会终止对应的php子进程,webserver日志的状态码为 404,proxy的日志的状态码也是 404 。
3 关于文件数问题
Linux里面的一些限制参数可以通过ulimit -a查看,比如我的debian8.2系统的输出如下:
# ulimit -acore file size (blocks, -c) 0data seg size (kbytes, -d) unlimitedscheduling priority (-e) 0file size (blocks, -f) unlimitedpending signals (-i) 96537max locked memory (kbytes, -l) 64max memory size (kbytes, -m) unlimitedopen files (-n) 1000000pipe size (512 bytes, -p) 8POSIX message queues (bytes, -q) 819200real-time priority (-r) 0stack size (kbytes, -s) 8192cpu time (seconds, -t) unlimitedmax user processes (-u) 96537virtual memory (kbytes, -v) unlimitedfile locks (-x) unlimited
其中open files是一个进程可以同时打开的文件数,超过则会报too many open files错误 , 修改可以通过ulimit -n xxx来实现 。而max user processes则是用户最多创建的进程数 。
另外,系统允许打开的最大文件数在配置file-max中 。
# cat /proc/sys/fs/file-max2471221
修改file-max可以通过# sysctl -w fs.file-max=1000000修改,永久生效需要在/etc/sysctl.conf中加入这行fs.file-max=1000000然后sysctl -p即可 。
要针对用户限制文件数之类的,可以修改/etc/security/limits.conf,内容格式如下:
<domain> <type> <item> <value>## 比如限制 bob这个用户的一个进程同时打开的文件数## Example hard limit for max opened filesbob hard nofile 4096## Example soft limit for max opened filesbob soft nofile 1024
nginx配置中的worker_rlimit_nofile可以配置为open files这个值 。
ulimit -a命令
sysctl.conf文件
【nginx和php-fpm连接超时之解决方法】以上就是朝夕生活(www.30zx.com)关于“nginx和php-fpm连接超时之解决方法”的详细内容,希望对大家有所帮助!
猜你喜欢
- 「前端」Android SDK 安全加固问题与分析
- 常见的LNMP 502错误解决方法
- 怎么应对pdf文件损坏打不开呢?
- pdf转word怎么转换不乱码?这里有你想要的答案
- PDF太大?推荐一个无损压缩PDF的方法,不乱码,超清晰
- pdf转word如何不乱码?分享几个不乱码好方法
- 如何还原释放DELL电脑win10系统及调试安装软件?
- 家里Wifi卡顿、网速慢怎么办?
- 电脑干货 打游戏老坑队友 不是你技术问题 是电脑卡了!