利用fastcgi_finish_request加速你的代码

2017-12-05 22:32:14 / 3740 / 生活琐事

<?php

if (!function_exists("fastcgi_finish_request")) {

  function fastcgi_finish_request()  {

    echo 'no';

  } } echo '例子:';

fastcgi_finish_request();

/* 响应完成, 关闭连接 */

echo '111';

/* 记录日志 */

for ($x=0; $x<=900000; $x++) {

  file_put_contents('log.txt', $x); }

如果是在php-fpm的情况下运行该代码,将不会显示后面的111,等于使用fastcgi_finish_request(); 就中断了客户端的响应,跟die,exit,不同的是,脚本并没有中断,还会在后台执行,只是结束了客户端的响应而已。

通常在一些复杂的操作的时候,为了响应执行,客户端总要等待很长的时间,用fastcgi_finish_request就能避免这个问题!

该函数只有在php-fpm的情况下才能使用,前面的函数定义是为了兼容一下环境,没有这个函数就创建一个相同的函数,避免在接下来的操作中不会出现错误!

需要注意的是,php.ini 里面max_execution_time 可以设置 PHP 脚本的最大执行时间,但是,在 php-cgi(php-fpm) 中,该参数不会起效。

请打开php-fpm.conf的配置,查看request_terminate_timeout当前的默认值

如果值为 0 秒,也就是说,PHP 脚本会一直执行下去。

request_terminate_timeout的值如果设置为0或者过长的时间,可能会引起file_get_contents的资源问题。

如果file_get_contents请求的远程资源如果反应过慢,file_get_contents就会一直卡在那里不会超时。

当所有的 php-cgi 进程都卡在 file_get_contents() 函数时,这台 Nginx+PHP 的 WebServer 已经无法再处理新的 PHP 请求了,Nginx 将给用户返回“502 Bad Gateway”。

修改该参数,设置一个 PHP 脚本最大执行时间是必要的,但是,治标不治本。

例如改成 30s,如果发生 file_get_contents() 获取网页内容较慢的情况,这就意味着 150 个 php-cgi 进程,每秒钟只能处理 5 个请求,WebServer 同样很难避免”502 Bad Gateway”。

解决办法是request_terminate_timeout设置为10s或者一个合理的值,或者给file_get_contents加一个超时参数。

$ctx = stream_context_create(

  array('http' => array(

      'timeout' => 10    //设置一个超时时间,单位为秒

   ) )); file_get_contents($str, 0, $ctx);

max_requests参数配置不当,可能会引起间歇性502错误:

pm.max_requests = 1000

设置每个子进程重生之前服务的请求数. 对于可能存在内存泄漏的第三方模块来说是非常有用的. 如果设置为 '0′ 则一直接受请求. 等同于 PHP_FCGI_MAX_REQUESTS 环境变量. 默认值: 0.

这段配置的意思是,当一个 PHP-CGI 进程处理的请求数累积到 500 个后,自动重启该进程。

但是为什么要重启进程呢?

一般在项目中,我们多多少少都会用到一些 PHP 的第三方库,这些第三方库经常存在内存泄漏问题,如果不定期重启 PHP-CGI 进程,势必造成内存使用量不断增长。

因此 PHP-FPM 作为 PHP-CGI 的管理器,提供了这么一项监控功能,对请求达到指定次数的 PHP-CGI 进程进行重启,保证内存使用量不增长。

解决502方法是,把这个值尽量设置大些,尽可能减少 PHP-CGI 重新 SPAWN 的次数,同时也能提高总体性能。


gravatar头像