从零开始学习基于WebMagic的Java爬虫(二):爬取CSDN博客

声明:
本例中的源代码参考了:http://blog.csdn.net/qq598535550/article/details/51287630 ,并进行修改而成的。

由于案例就是爬取的CSDN博客,分析了一下各大博客网站,发现CSDN比较适合入门,所以我也选择CSDN作为开始,写我的第一个爬虫程序。

首先来介绍爬虫的核心爬取逻辑,即PageProcessor,我们每写一个爬虫,都必须编写一个针对待爬取网站的爬取逻辑,该类要实现PageProcessor接口。

import us.codecraft.webmagic.Page;
import us.codecraft.webmagic.Site;
import us.codecraft.webmagic.Spider;
import us.codecraft.webmagic.pipeline.JsonFilePipeline;
import us.codecraft.webmagic.processor.PageProcessor;

import java.text.SimpleDateFormat;
import java.util.Date;
import java.util.List;
import java.util.Scanner;

/**
 * Created by Rush on 2017/3/27.
 */

public class CsdnBlogPageProcessor implements PageProcessor {
    // 部分一:抓取网站的相关配置,包括编码、抓取间隔、重试次数等
    private Site site = Site.me().setRetryTimes(3).setSleepTime(1000)
            .setUserAgent(
                    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_2) AppleWebKit/537.31 (KHTML, like Gecko) Chrome/26.0.1410.65 Safari/537.31");
//            .setUserAgent("Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.63 Safari/537.36");
    private static String username; // 设置的Csdn用户名
    private static int size = 0; // 共抓取到的文章数量

    // process是定制爬虫逻辑的核心接口,在这里编写抽取逻辑
    public void process(Page page) {
        // 部分二:定义如何抽取页面信息,并保存下来
        // 如果匹配成功,说明是文章页
        if(!page.getUrl().regex("http://blog\\.csdn\\.net/" + username + "/article/details/\\d+").match()){
            // 添加所有文章页
            page.addTargetRequests(page.getHtml().xpath("//div[@id='article_list']").links()
                    .regex("/" + username + "/article/details/\\d+")
                    .replace("/" + username + "/", "http://blog.csdn.net/" + username + "/")
                    .all());
            // 添加其他列表页
            page.addTargetRequests(page.getHtml().xpath("//div[@id='papelist']").links() // 限定其他列表页获取区域
                    .regex("/" + username + "/article/list/\\d+")
                    .replace("/" + username + "/", "http://blog.csdn.net/" + username + "/")// 巧用替换给把相对url转换成绝对url
                    .all());
        } else {
            ++size;

            page.putField("numbers", page.getUrl().regex("\\d+$").get());
            page.putField("authors", username);
            page.putField("titles", page.getHtml()
                            .xpath("//div[@class='article_title']//h1//span[@class='link_title']/a/text()").get());
            page.putField("dates", page.getHtml()
                            .xpath("//div[@class='article_r']//span[@class='link_postdate']/text()").get());
            page.putField("tags", listToString(page.getHtml()
                    .xpath("//div[@class='article_l']//span[@class='link_categories']/a/text()").all()));
            page.putField("categorys", listToString(page.getHtml()
                            .xpath("//div[@class='category_r']//label//span//text()").all()));
            page.putField("views", page.getHtml()
                            .xpath("//div[@class='article_r']//span[@class='link_view']").regex("\\d+").get());
            page.putField("comments", page.getHtml()
                            .xpath("//div[@class='article_r']//span[@class='link_comments']//text()").regex("\\d+").get());
            page.putField("copyright", page.getHtml().regex("bog_copyright").match() ? 1 : 0);
            SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
            page.putField("dateCreated", sdf.format(new Date()));

            /* 如果想要存储到数据库中,打开此代码段,并将上面的代码段注释掉。
            CsdnBlog csdnBlog = new CsdnBlog(
                    // 文章随机编号
                    Integer.valueOf(page.getUrl()
                            .regex("\\d+$").get()),
                    // 文章作者
                    username,
                    // 文章标题
                    page.getHtml()
                            .xpath("//div[@class='article_title']//h1//span[@class='link_title']/a/text()").get(),
                    // 文章日期
                    page.getHtml()
                            .xpath("//div[@class='article_r']//span[@class='link_postdate']/text()").get(),
                    // 文章标签
                    listToString(page.getHtml()
                            .xpath("//div[@class='article_l']//span[@class='link_categories']/a/text()").all()),
                    // 文章类别
                    listToString(page.getHtml()
                            .xpath("//div[@class='category_r']//label//span//text()").all()),
                    // 阅读人数
                    Integer.valueOf(page.getHtml()
                            .xpath("//div[@class='article_r']//span[@class='link_view']").regex("\\d+").get()),
                    // 评论人数
                    Integer.valueOf(page.getHtml()
                            .xpath("//div[@class='article_r']//span[@class='link_comments']//text()").regex("\\d+").get()),
                    // 是否原创
                    page.getHtml().regex("bog_copyright").match() ? 1 : 0
            );
            new CsdnBlogDao().add(csdnBlog);
            System.out.println(csdnBlog);
            */
        }
    }

    public Site getSite() {
        return site;
    }

    private static String listToString(List<String> stringList){
        if(stringList == null){
            return null;
        }
        StringBuffer result = new StringBuffer();
        boolean flag = false;
        for(String s : stringList){
            if(flag){
                result.append(',');
            } else {
                flag = true;
            }
            result.append(s);
        }
        return result.toString();
    }

    public static void main(String[] args) {
        long startTime, endTime;
        System.out.print("请输入要爬取的CSDN博主用户名:");
        Scanner scanner = new Scanner(System.in);
        username = scanner.next();
        System.out.println("-----------启动爬虫程序-----------");
        startTime = System.currentTimeMillis();
        Spider.create(new CsdnBlogPageProcessor())
            .addUrl("http://blog.csdn.net/" + username)
            .addPipeline(new JsonFilePipeline("D:\\webmagic\\"))
            //开启5个线程抓取
            .thread(5)
            //启动爬虫
            .run();
        endTime = System.currentTimeMillis();
        System.out.println("结束爬虫程序,共抓取 " + size + " 篇文章,耗时约 " + ((endTime - startTime) / 1000) + " 秒!");
    }
}

简单说明下程序:

首先输入想要爬取的CSDN博主用户名,然后回车即可开始爬取数据,爬取完成的数据将存在D:\webmagic目录中,当然,你可以修改这个地址。

爬取获得的数据将以JSON格式存储在文件夹内。

如果你想将爬取的数据,保存到数据库内的话,可以将上面的注释打开,并且将原注释上方的代码段注释掉,然后加上下面的贴出来的代码,即可将数据保存到数据库中。

main()函数是java程序的入口,我们从这里开始看,开头几句话不用多说。

Spider.create()函数可以定义爬虫的目标地址以及爬取的各种参数,进程等等。

create中的addPipeline()说明了保存数据的方法,这里我使用了最基本的JsonFilePipeline方法,将数据以JSON格式保存在本地文件里面,当然,你也可以自定义你的保存方法。

process()函数,可以看出来本例中大量使用了XPath来获取元素,想必有HTML基础的人应该可以看出来;并且还使用了正则表达式来匹配和抽取文本。其中使用page.addTargetRequests()来不断添加要抓取的网页到队列中。

举个例子:
我们可以看到标题(titles)元素的抽取,使用的xpath语句是:

page.putField("titles", page.getHtml()
.xpath("//div[@class='article_title']//h1//span[@class='link_title']/a/text()").get());

可以看到标题的文字是在class名为article_title的div内,紧接着后面的路径还有h1>span(class名为link_title)>a,然后a里面的文字就是文章的题目,所以可以使用形如上面的代码来表示这一部分内容,紧接着用get()函数取出文字。

除了get()函数,WebMagic还提供了all()函数,可以获得与xpath匹配出路径相同的所有元素的list,返回一个String列表。

另外你还可以使用regex()函数跟在xpath后面, 将抽取出来的数据进行进一步处理,从而产生出需要的数据。

如果想获取更多更详细的方法介绍,请参见http://webmagic.io/

通过以上两种手段,就已经可以写出简单的爬取CSDN博客的爬虫。

如果想将数据保存到数据库,还需要后面两段代码。

import java.sql.*;

/**
 * Created by Rush on 2017/3/27.
 */
public class CsdnBlogDao {
    private Connection conn = null;
    private Statement stmt = null;

    public CsdnBlogDao(){
        try{
            Class.forName("com.mysql.jdbc.Driver");
            String url = "jdbc:mysql://localhost:3306/spider";
            String username = "root";
            String password = "rush";
            conn = DriverManager.getConnection(url, username, password);
            stmt = conn.createStatement();
        } catch (ClassNotFoundException e){
            e.printStackTrace();
        } catch (SQLException e){
            System.out.println("数据库连接失败!");
            e.printStackTrace();
        }
    }

    public int add(CsdnBlog csdnBlog){
        try{
            String sql = "insert into spider.csdnblog(" +
                    "numbers, authors, titles, dates, tags, categorys, " +
                    "views, comments, copyright, date_created) " +
                    "values(" + csdnBlog.getNumbers() +
                    ", '" + csdnBlog.getAuthors() +
                    "', '" + csdnBlog.getTitles() +
                    "', '" + csdnBlog.getDates() +
                    "', '" + csdnBlog.getTags() +
                    "', '" + csdnBlog.getCategorys() +
                    "', " + csdnBlog.getViews() +
                    ", " + csdnBlog.getComments() +
                    ", " + csdnBlog.getCopyright() +
                    ", sysdate())";
            System.out.println(sql);
            PreparedStatement ps = conn.prepareStatement(sql);
            int rows = stmt.executeUpdate(sql);
        } catch (SQLException e){
            System.out.println("插入数据失败!");
            e.printStackTrace();
        }
        return -1;
    }
}
import java.util.Date;

/**
 * Created by Rush on 2017/3/27.
 */
public class CsdnBlog {

    private int id;

    private int numbers; // 编号

    private String authors; // 作者

    private String titles; // 标题

    private String dates; // 文章日期

    private String tags; // 标签

    private String categorys; // 分类

    private int views; // 阅读人数

    private int comments; // 评论人数

    private int copyright; // 是否原创

    private Date dateCreated; // 爬取时间

    public CsdnBlog() {}

    public CsdnBlog(int numbers, String authors, String titles, String dates, String tags, String categorys, int views, int comments, int copyright) {
        this.numbers = numbers;
        this.authors = authors;
        this.titles = titles;
        this.dates = dates;
        this.tags = tags;
        this.categorys = categorys;
        this.views = views;
        this.comments = comments;
        this.copyright = copyright;
    }

    public int getNumbers() {
        return numbers;
    }

    public void setNumbers(int numbers) {
        this.numbers = numbers;
    }

    public String getAuthors() {
        return authors;
    }

    public void setAuthors(String authors) {
        this.authors = authors;
    }

    public String getTitles() {
        return titles;
    }

    public void setTitles(String titles) {
        this.titles = titles;
    }

    public String getDates() {
        return dates;
    }

    public void setDates(String date) {
        this.dates = dates;
    }

    public String getTags() {
        return tags;
    }

    public void setTags(String tags) {
        this.tags = tags;
    }

    public String getCategorys() {
        return categorys;
    }

    public void setCategorys(String categorys) {
        this.categorys = categorys;
    }

    public int getViews() {
        return views;
    }

    public void setViews(int views) {
        this.views = views;
    }

    public int getComments() {
        return comments;
    }

    public void setComments(int comments) {
        this.comments = comments;
    }

    public int getCopyright() {
        return copyright;
    }

    public void setCopyright(int copyright) {
        this.copyright = copyright;
    }

    public Date getDateCreated() {
        return dateCreated;
    }

    public void setDateCreated(Date dateCreated) {
        this.dateCreated = dateCreated;
    }

    @Override
    public String toString() {
        return "CsdnBlog{" +
                "numbers=" + numbers +
                ", authors='" + authors + '\'' +
                ", titles='" + titles + '\'' +
                ", dates='" + dates + '\'' +
                ", tags='" + tags + '\'' +
                ", categorys='" + categorys + '\'' +
                ", views=" + views +
                ", comments=" + comments +
                ", copyright=" + copyright +
                '}';
    }
}

如果你想知道爬到这些数据有什么用呢?

好吧,我也不知道他们有什么用。

不过可以肯定的一点是:

你已经完成了自己的第一个爬虫程序了,不是吗?

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,098评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,213评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,960评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,519评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,512评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,533评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,914评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,574评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,804评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,563评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,644评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,350评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,933评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,908评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,146评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,847评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,361评论 2 342

推荐阅读更多精彩内容

  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 171,384评论 25 707
  • 序言第1章 Scrapy介绍第2章 理解HTML和XPath第3章 爬虫基础第4章 从Scrapy到移动应用第5章...
    SeanCheney阅读 15,022评论 13 61
  • 一月你还没出现 二月你在我这里看月光 三月下起了大雨 四月遍地蔷薇 五月云翻涌成夏 我们对面坐着 犹如梦中 六月青...
    再见亦如初阅读 172评论 0 2
  • 《里仁第四》第二十三章 子曰:"以约失之者鲜矣。" 孔子说:"因为自我约束而在做人处事上有什么失误,那是很少有的。...
    婷的心灵花园阅读 2,164评论 0 1
  • 循着前世的足迹,与今生的轮回里与你相约。 弹指一挥间,时光已过了千年。千年前的那一天,你轻抚玉笛与窗前,幽婉的笛声...
    悟姑娘阅读 705评论 0 1