• 欢迎访问搞代码网站,推荐使用最新版火狐浏览器和Chrome浏览器访问本网站!
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏搞代码吧

php远路抓取网站图片并保存

php 搞代码 3年前 (2022-01-24) 19次浏览 已收录 0个评论

php远程抓取网站图片并保存

以前看到网上别人说写程序抓取网页图片的,感觉挺神奇,心想什么时候我自己也写一个抓取图片的方法!

?

刚好这两天没什么事,就参考了网上一个php抓取图片代码,重点借鉴了 匹配img标签和其src属性正则的写法,

封装了一个php远程抓取图片的类,测试了一下,速度还凑合, 两分钟从 艾妮 ini.iteye.com 抓取了 110多张图片

?

代码如下:

<?php/** * 一个用于抓取图片的类 * * @package default * @author  WuJunwei*  keleyi.com */class download_image {        public $save_path;                  //抓取图片的保存地址    //抓取图片的大小限制(单位:字节) 只抓比size比这个限制大的图片    public $img_size=0;     //定义一个静态数组,用于记录曾经抓取过的的超链接地址,避免重复抓取           public static $a_url_arr=array();           /**     * @param String $save_path    抓取图片的保存地址     * @param Int    $img_size     抓取图片的保存地址     */    public function __construct($save_path,$img_size)    {        $this->save_path=$save_path;        $this->img_size=$img_size;    }            /**     * 递归下载抓取首页及其子页面图片的方法  ( recursive 递归)     *     * @param   String  $capture_url  用于抓取图片的网址     *      */    public function recursive_download_images($capture_url)    {        if (!in_array($capture_url,self::$a_url_arr))   //没抓取过        {                                     self::$a_url_arr[]=$capture_url;   //计入静态数组        } else   //抓取过,直接退出函数        {            return;        }                        $this->download_current_page_images($capture_url);  //下载当前页面的所有图片                //用@屏蔽掉因为抓取地址无法读取导致的warning错误        $content=@file_get_contents($capture_url);                 //匹配a标签href属性中?之前部分的正则        $a_pattern = "|]+href=['\" ]?([^ '\"?]+)['\" >]|U";           preg_match_all($a_pattern, $content, $a_out, PREG_SET_ORDER);                $tmp_arr=array();  //定义一个数组,用于存放当前循环下抓取图片的超链接地址        foreach ($a_out as $k => $v)         {            /**             * 去除超链接中的 空'','#','/'和重复值               * 1: 超链接地址的值 不能等于当前抓取页面的url, 否则会陷入死循环             * 2: 超链接为''或'#','/'也是本页面,这样也会陷入死循环,               * 3: 有时一个超连接地址在一个网页中会重复出现多次,如果不去除,会对一个子页面进行重复下载)             */            if ( $v[1] && !in_array($v[1],self::$a_url_arr) &&!in_array($v[1],array('#','/',$capture_url) ) )             {                $tmp_arr[]=$v[1];            }        }          foreach ($tmp_arr as $k => $v)         {                        //超链接路径地址            if ( strpos($v, 'http://')!==false ) //如果url包含http://,可以直接访问            {                $a_url = $v;            }else   //否则证明是相对地址, 需要重新拼凑超链接的访问地址            {                $domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1);                $a_url=$domain_url.$v;            }            $this->recursive_download_images($a_url);        }            }                /**     * 下载当前网页下的所有图片      *     * @param   String  $capture_url  用于抓取图片的网页地址     * @return  Array   当前网页上所有图片img标签url地址的一个数组     */    public function download_current_page_images($capture_url)    {        $content=@file_get_contents($capture_url);   //屏蔽warning错误		//匹配img标签src属性中?之前部分的正则		$img_pattern = "|]+src=['\" ]?([^ '\"?]+)['\" >]|U";           preg_match_all($img_pattern, $content, $img_out, PREG_SET_ORDER);		$photo_num = count($img_out);        //匹配到的图片数量        echo '

'.$capture_url . "共找到 " . $photo_num . " 张图片

"; foreach ($img_out as $k => $v) { $this->save_one_img($capture_url,$v[1]); } } /** * 保存单个图片的方法 * * @param String $capture_url 用于抓取图片的网页地址 * @param String $img_url 需要保存的图片的url * */ public function save_one_img($capture_url,$img_url) { //图片路径地址 if ( strpos($img_url, 'http://')!==false ) { // $img_url = $img_url; }else { $domain_url = substr($capture_url, 0,strpos($capture_url, '/',8)+1); $img_url=$domain_url.$img_url; } $pathinfo = pathinfo($img_url); //获取图片路径信息 $pic_name=$pathinfo['basename']; //获取图片的名字 if (file_exists($this->save_path.$pic_name)) //如果图片存在,证明已经被抓取过,退出函数 { echo $img_url . '该图片已经抓取过!
'; r
本&文来源gaodai^.ma#com搞#代!码网
搞gaodaima代码eturn; } //将图片内容读入一个字符串 $img_data = @file_get_contents($img_url); //屏蔽掉因为图片地址无法读取导致的warning错误 if ( strlen($img_data) > $this->img_size ) //下载size比限制大的图片 { $img_size = file_put_contents($this->save_path . $pic_name, $img_data); if ($img_size) { echo $img_url . '图片保存成功!
'; } else { echo $img_url . '图片保存失败!
'; } } else { echo $img_url . '图片读取失败!
'; } } } // ENDset_time_limit(120); //设置脚本的最大执行时间 根据情况设置 $download_img=new download_image('E:/images/',0); //实例化下载图片对象$download_img->recursive_download_images('http://ini.iteye.com/'); //递归抓取图片方法//$download_img->download_current_page_images($_POST['capture_url']); //只抓取当前页面图片方法?>

?


搞代码网(gaodaima.com)提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请说明详细缘由并提供版权或权益证明然后发送到邮箱[email protected],我们会在看到邮件的第一时间内为您处理,或直接联系QQ:872152909。本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:php远路抓取网站图片并保存

喜欢 (0)
[搞代码]
分享 (0)
发表我的评论
取消评论

表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址