最近接了一个需求,用php写一个爬虫,不能使用框架,我就用curl写了一个爬虫
原理
原理其实很简单,首先指定一个起点,获取到一个页面的内容,然后获取其中所有的下一级url,写入文件或数据库作为种子队列,之后循环从文件中取出一个url获取其中所有的下一级url。对于感兴趣的url可以进行自定义的操作。
curl请求
$ch=curl_init();
curl_setopt($ch, CURLOPT_HTTPAUTH, CURLAUTH_BASIC ) ;
curl_setopt($ch, CURLOPT_USERPWD, "username:password");
curl_setopt($ch, CURLOPT_SSLVERSION,3);
curl_setopt($ch, CURLOPT_SSL_VERIFYPEER, false);
curl_setopt($ch, CURLOPT_SSL_VERIFYHOST, false);
curl_setopt($ch, CURLOPT_SSLVERSION, 6);
curl_setopt($ch,CURLOPT_URL,$url);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
curl_setopt($ch,CURLOPT_HEADER,1);
$result=curl_exec($ch);
$code=curl_getinfo($ch,CURLINFO_HTTP_CODE);
if($code!='404' && $result){
return $result;
}
curl_close($ch);
删除相同的url
function del_same_url($array_url){
if(is_array($array_url)){
$insert_url=array();
$pizza=file_get_contents("url.txt");
if($pizza){
$pizza=explode("\r\n",$pizza);
foreach($array_url as $array_value_url){
if(!in_array($array_value_url,$pizza)){
$insert_url[]=$array_value_url;
}
}
if($insert_url){
foreach($insert_url as $key => $insert_url_value){
$update_insert_url=preg_replace('/=[^&]*/','=leesec',$insert_url_value);
foreach($pizza as $pizza_value){
$update_pizza_value=preg_replace('/=[^&]*/','=leesec',$pizza_value);
if($update_insert_url==$update_pizza_value){
unset($insert_url[$key]);
continue;
}
}
}
}
}else{
$insert_url=array();
$insert_new_url=array();
$insert_url=$array_url;
foreach($insert_url as $insert_url_value){
$update_insert_url=preg_replace('/=[^&]*/','=leesec',$insert_url_value);
$insert_new_url[]=$update_insert_url;
}
$insert_new_url=array_unique($insert_new_url);
foreach($insert_new_url as $key => $insert_new_url_val){
$insert_url_bf[]=$insert_url[$key];
}
$insert_url=$insert_url_bf;
}
return $insert_url;
}else{
return;
}
}
获取感兴趣的数据
设置了curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1)后curl_exec()就能以字符串的形式返回获取到的页面,想要获取页面中具体某一部分的内容,就需要自己写正则表达式或者使用xpath来获取了。
这里提供一个正则表达式去除html的标签
preg_replace("/<\/?.+?\/?>/","",$data);
主程序
function main(){
$current_url="https://www.baidu.com";
$fp_puts = fopen("url.txt","ab");
$fp_gets = fopen("url.txt","r");
$url_base_url=parse_url($current_url);
if($url_base_url['scheme']==""){
$url_base="http://".$url_base_url['host'];
}else{
$url_base=$url_base_url['scheme']."://".$url_base_url['host'];
}
do{
...
}
}while ($current_url = substr(fgets($fp_gets,1024),0,-2));
}
这里要注意循环读取url时调用fgets()会从文件中读取一行,以字符串返回,但是末尾会带有空格,而curl_exec()执行带有空格的url会返回false,而且curl_error()为空,这里折腾了我好久。
|