|
楼主 |
发表于 2012-7-23 11:47:34
|
显示全部楼层
cURL批处理(multi cURL)
cURL还有一个高级特性——批处理句柄(handle)。这一特性允许你同时或异步地打开多个URL连接。
下面是来自来自php.net的示例代码:
以下为引用的内容:- // 创建两个cURL资源
- $ch1 = curl_init();
- $ch2 = curl_init();
- // 指定URL和适当的参数
- curl_setopt($ch1, CURLOPT_URL, "http://lxr.php.net/");
- curl_setopt($ch1, CURLOPT_HEADER, 0);
- curl_setopt($ch2, CURLOPT_URL, "http://www.php.net/");
- curl_setopt($ch2, CURLOPT_HEADER, 0);
- // 创建cURL批处理句柄
- $mh = curl_multi_init();
- // 加上前面两个资源句柄
- curl_multi_add_handle($mh,$ch1);
- curl_multi_add_handle($mh,$ch2);
- // 预定义一个状态变量
- $active = null;
- // 执行批处理
- do {
- $mrc = curl_multi_exec($mh, $active);
- } while ($mrc == CURLM_CALL_MULTI_PERFORM);
- while ($active && $mrc == CURLM_OK) {
- if (curl_multi_select($mh) != -1) {
- do {
- $mrc = curl_multi_exec($mh, $active);
- } while ($mrc == CURLM_CALL_MULTI_PERFORM);
- }
- }
- // 关闭各个句柄
- curl_multi_remove_handle($mh, $ch1);
- curl_multi_remove_handle($mh, $ch2);
- curl_multi_close($mh);
复制代码 这里要做的就是打开多个cURL句柄并指派给一个批处理句柄。然后你就只需在一个while循环里等它执行完毕。
这个示例中有两个主要循环。第一个 do-while 循环重复调用 curl_multi_exec() 。这个函数是无隔断(non-blocking)的,但会尽可能少地执行。它返回一个状态值,只要这个值等于常量 CURLM_CALL_MULTI_PERFORM ,就代表还有一些刻不容缓的工作要做(例如,把对应URL的http头信息发送出去)。也就是说,我们需要不断调用该函数,直到返回值发生改变。
而接下来的 while 循环,只在 $active 变量为 true 时继续。这一变量之前作为第二个参数传给了 curl_multi_exec() ,代表只要批处理句柄中是否还有活动连接。接着,我们调用 curl_multi_select() ,在活动连接(例如接受服务器响应)出现之前,它都是被“屏蔽”的。这个函数成功执行后,我们又会进入另一个 do-while 循环,继续下一条URL。
还是来看一看怎么把这一功能用到实处吧:
WordPress 连接检查器
想象一下你有一个文章数目庞大的博客,这些文章中包含了大量外部网站链接。一段时间之后,因为这样那样的原因,这些链接中相当数量都失效了。要么是被和谐了,要么是整个站点都被功夫网了...
我们下面建立一个脚本,分析所有这些链接,找出打不开或者404的网站/网页,并生成一个报告。
请注意,以下并不是一个真正可用的WordPress插件,仅仅是一段独立功能的脚本而已,仅供演示,谢谢。
好,开始吧。首先,从数据库中读取所有这些链接:
以下为引用的内容:- // CONFIG
- $db_host = 'localhost';
- $db_user = 'root';
- $db_pass = '';
- $db_name = 'wordpress';
- $excluded_domains = array(
- 'localhost', 'www.mydomain.com');
- $max_connections = 10;
- // 初始化一些变量
- $url_list = array();
- $working_urls = array();
- $dead_urls = array();
- $not_found_urls = array();
- $active = null;
- // 连到 MySQL
- if (!mysql_connect($db_host, $db_user, $db_pass)) {
- die('Could not connect: ' . mysql_error());
- }
- if (!mysql_select_db($db_name)) {
- die('Could not select db: ' . mysql_error());
- }
- // 找出所有含有链接的文章
- $q = "SELECT post_content FROM wp_posts
- WHERE post_content LIKE '%href=%'
- AND post_status = 'publish'
- AND post_type = 'post'";
- $r = mysql_query($q) or die(mysql_error());
- while ($d = mysql_fetch_assoc($r)) {
- // 用正则匹配链接
- if (preg_match_all("!href="(.*?)"!", $d['post_content'], $matches)) {
- foreach ($matches[1] as $url) {
- // exclude some domains
- $tmp = parse_url($url);
- if (in_array($tmp['host'], $excluded_domains)) {
- continue;
- }
- // store the url
- $url_list []= $url;
- }
- }
- }
- // 移除重复链接
- $url_list = array_values(array_unique($url_list));
- if (!$url_list) {
- die('No URL to check');
- }
复制代码 我们首先配置好数据库,一系列要排除的域名($excluded_domains),以及最大并发连接数($max_connections)。然后,连接数据库,获取文章和包含的链接,把它们收集到一个数组中($url_list)。
下面的代码有点复杂了,因此我将一小步一小步地详细解释:
以下为引用的内容:- // 1. 批处理器
- $mh = curl_multi_init();
- // 2. 加入需批量处理的URL
- for ($i = 0; $i < $max_connections; $i++) {
- add_url_to_multi_handle($mh, $url_list);
- }
- // 3. 初始处理
- do {
- $mrc = curl_multi_exec($mh, $active);
- } while ($mrc == CURLM_CALL_MULTI_PERFORM);
- // 4. 主循环
- while ($active && $mrc == CURLM_OK) {
- // 5. 有活动连接
- if (curl_multi_select($mh) != -1) {
- // 6. 干活
- do {
- $mrc = curl_multi_exec($mh, $active);
- } while ($mrc == CURLM_CALL_MULTI_PERFORM);
- // 7. 有信息否?
- if ($mhinfo = curl_multi_info_read($mh)) {
- // 意味着该连接正常结束
- // 8. 从curl句柄获取信息
- $chinfo = curl_getinfo($mhinfo['handle']);
- // 9. 死链么?
- if (!$chinfo['http_code']) {
- $dead_urls []= $chinfo['url'];
- // 10. 404了?
- } else if ($chinfo['http_code'] == 404) {
- $not_found_urls []= $chinfo['url'];
- // 11. 还能用
- } else {
- $working_urls []= $chinfo['url'];
- }
- // 12. 移除句柄
- curl_multi_remove_handle($mh, $mhinfo['handle']);
- curl_close($mhinfo['handle']);
- // 13. 加入新URL,干活
- if (add_url_to_multi_handle($mh, $url_list)) {
- do {
- $mrc = curl_multi_exec($mh, $active);
- } while ($mrc == CURLM_CALL_MULTI_PERFORM);
- }
- }
- }
- }
- // 14. 完了
- curl_multi_close($mh);
- echo "==Dead URLs==\n";
- echo implode("\n",$dead_urls) . "\n\n";
- echo "==404 URLs==\n";
- echo implode("\n",$not_found_urls) . "\n\n";
- echo "==Working URLs==\n";
- echo implode("\n",$working_urls);
- // 15. 向批处理器添加url
- function add_url_to_multi_handle($mh, $url_list) {
- static $index = 0;
- // 如果还剩url没用
- if ($url_list[$index]) {
- // 新建curl句柄
- $ch = curl_init();
- // 配置url
- curl_setopt($ch, CURLOPT_URL, $url_list[$index]);
- // 不想输出返回的内容
- curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
- // 重定向到哪儿我们就去哪儿
- curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1);
- // 不需要内容体,能够节约带宽和时间
- curl_setopt($ch, CURLOPT_NOBODY, 1);
- // 加入到批处理器中
- curl_multi_add_handle($mh, $ch);
- // 拨一下计数器,下次调用该函数就能添加下一个url了
- $index++;
- return true;
- } else {
- // 没有新的URL需要处理了
- return false;
- }
- }
复制代码 下面解释一下以上代码。列表的序号对应着代码注释中的顺序数字。
新建一个批处理器。Created a multi handle.
稍后我们将创建一个把URL加入批处理器的函数 add_url_to_multi_handle() 。每当这个函数被调用,就有一个新url被加入批处理器。一开始,我们给批处理器添加了10个URL(这一数字由 $max_connections 所决定)。
运行 curl_multi_exec() 进行初始化工作是必须的,只要它返回 CURLM_CALL_MULTI_PERFORM 就还有事情要做。这么做主要是为了创建连接,它不会等待完整的URL响应。
只要批处理中还有活动连接主循环就会一直持续。
curl_multi_select() 会一直等待,直到某个URL查询产生活动连接。
cURL的活儿又来了,主要是获取响应数据。
检查各种信息。当一个URL请求完成时,会返回一个数组。
在返回的数组中有一个 cURL 句柄。我们利用其获取单个cURL请求的相应信息。
如果这是一个死链或者请求超时,不会返回http状态码。
如果这个页面找不到了,会返回404状态码。
其他情况我们都认为这个链接是可用的(当然,你也可以再检查一下500错误之类...)。
从该批次移除这个cURL句柄,因为它已经没有利用价值了,关了它!
很好,现在可以另外加一个URL进来了。再一次地,初始化工作又开始进行...
嗯,该干的都干了。关闭批处理器,生成报告。
回过头来看给批处理器添加新URL的函数。这个函数每调用一次,静态变量 $index 就递增一次,这样我们才能知道还剩多少URL没处理。
我把这个脚本在我的博客上跑了一遍(测试需要,有一些错误链接是故意加上的),结果如下:
以下为引用的内容:- <img border="0" src="http://nettuts.s3.cdn.plus.org/534_curl/ss_4.png" />
复制代码 共检查约40个URL,只耗费两秒不到。当需要检查更加大量的URL时,其省心省力的效果可想而知!如果你同时打开10个连接,还能再快上10倍!另外,你还可以利用cURL批处理的无隔断特性来处理大量URL请求,而不会阻塞你的Web脚本。 |
|