利用fastcgi_finish_request加速你的代码
2017-12-05 22:32:14 / 3740 / 生活琐事<?php
if (!function_exists("fastcgi_finish_request")) {
function fastcgi_finish_request() {
echo 'no';
}
}
echo '例子:';
fastcgi_finish_request();
/* 响应完成, 关闭连接 */
echo '111';
/* 记录日志 */
for ($x=0; $x<=900000; $x++) {
file_put_contents('log.txt', $x);
}
如果是在php-fpm的情况下运行该代码,将不会显示后面的111,等于使用fastcgi_finish_request(); 就中断了客户端的响应,跟die,exit,不同的是,脚本并没有中断,还会在后台执行,只是结束了客户端的响应而已。
通常在一些复杂的操作的时候,为了响应执行,客户端总要等待很长的时间,用fastcgi_finish_request就能避免这个问题!
该函数只有在php-fpm的情况下才能使用,前面的函数定义是为了兼容一下环境,没有这个函数就创建一个相同的函数,避免在接下来的操作中不会出现错误!
需要注意的是,php.ini 里面max_execution_time 可以设置 PHP 脚本的最大执行时间,但是,在 php-cgi(php-fpm) 中,该参数不会起效。
请打开php-fpm.conf的配置,查看request_terminate_timeout当前的默认值
如果值为 0 秒,也就是说,PHP 脚本会一直执行下去。
request_terminate_timeout的值如果设置为0或者过长的时间,可能会引起file_get_contents的资源问题。
如果file_get_contents请求的远程资源如果反应过慢,file_get_contents就会一直卡在那里不会超时。
当所有的 php-cgi 进程都卡在 file_get_contents() 函数时,这台 Nginx+PHP 的 WebServer 已经无法再处理新的 PHP 请求了,Nginx 将给用户返回“502 Bad Gateway”。
修改该参数,设置一个 PHP 脚本最大执行时间是必要的,但是,治标不治本。
例如改成 30s,如果发生 file_get_contents() 获取网页内容较慢的情况,这就意味着 150 个 php-cgi 进程,每秒钟只能处理 5 个请求,WebServer 同样很难避免”502 Bad Gateway”。
解决办法是request_terminate_timeout设置为10s或者一个合理的值,或者给file_get_contents加一个超时参数。
$ctx = stream_context_create(
array('http' => array(
'timeout' => 10 //设置一个超时时间,单位为秒
)
));
file_get_contents($str, 0, $ctx);
max_requests参数配置不当,可能会引起间歇性502错误:
pm.max_requests = 1000
设置每个子进程重生之前服务的请求数. 对于可能存在内存泄漏的第三方模块来说是非常有用的. 如果设置为 '0′ 则一直接受请求. 等同于 PHP_FCGI_MAX_REQUESTS 环境变量. 默认值: 0.
这段配置的意思是,当一个 PHP-CGI 进程处理的请求数累积到 500 个后,自动重启该进程。
但是为什么要重启进程呢?
一般在项目中,我们多多少少都会用到一些 PHP 的第三方库,这些第三方库经常存在内存泄漏问题,如果不定期重启 PHP-CGI 进程,势必造成内存使用量不断增长。
因此 PHP-FPM 作为 PHP-CGI 的管理器,提供了这么一项监控功能,对请求达到指定次数的 PHP-CGI 进程进行重启,保证内存使用量不增长。
解决502方法是,把这个值尽量设置大些,尽可能减少 PHP-CGI 重新 SPAWN 的次数,同时也能提高总体性能。
封尘
@慢点 这是老文章了,没人回复很正常
慢点
啧啧啧 没人吗