动机
自从我把Github+Hexo的博客“交给”Google之后,每天都有几十位的访客2333,访客少的原因有许多,一个是文章较少,二是百度虫子没有爬到我的页面,就会导致即就算直接搜索博客里面的内容,百度都不会返回我的地址,就这个情况我已经使用百度和谷歌去处理了,至于文章较少的问题,我打算做个博客迁移!
我大三到现在的所有博客全部都在CSDN上,所以要对CSDN做一个文章导出功能,官方提供了工具,然而我昨天试了并不行。有博友自己提供了工具,是用python写的,本来打算用的,但是自己电脑没有装python,一时兴起决定用java写个小程序,自己动手丰衣足食,说干就干,整体的思路如下图:
使用Jsoup去获取页面并解析--->将对应html代码转换成MD文件存储到本地--->最后放到对应位置,执行
hexo g
和hexo d
命令发布到Github上
过程
解析CSDN
比较庆幸的是CSDN并没有对“爬虫”做相关的处理,也就是说,我使用Jsoup获取页面并解析是没有任何限制的(至少我没有遇到),这里需要做个简单的逻辑来获取article/list
页面的所有文章列表url包括摘要。在接着根据url将对应文章的内容结构化解析出来,代码如下
String url = HOST_URL + username + "/article/list/" + 1;
Document parse = Jsoup.parse(new URL(url), 5000);
Element element = parse.select("div#papelist span").get(0);
String papelistInfo = element.text();
String totalPage = papelistInfo.split("共")[1].split("页")[0]; // 有点暴力,需注意
int total = Integer.valueOf(totalPage);
System.out.println(total);
Map<String,String> map = new HashMap<>();
for (int i = 1; i <= total; i++) {
String listUrl = HOST_URL + username + "/article/list/" + i;
Document doc = Jsoup.parse(new URL(listUrl), 5000);
Elements topSelect = doc.select(TOP_XPATH);
Elements normalSelect = doc.select(NOMAIL_QUERY);
for (Element item : topSelect) {
map.put(item.select(".article_title h1 span a").get(0).attr("href"),item.select(".article_description").get(0).text());
}
for (Element item : normalSelect) {
map.put(item.select(".article_title h1 span a").get(0).attr("href"),item.select(".article_description").get(0).text());
}
}
Set<String> strings = map.keySet();
for(String item:strings){
Document doc = Jsoup.parse(new URL(HOST_URL + item), 5000);
BlogModel bm = new BlogModel();
bm.setTitle(doc.select("#article_details > div.article_title > h1 > span > a").text());
bm.setDesc(map.get(item));
bm.setPublishDate(doc.select("#article_details > div.article_manage.clearfix > div.article_r > span.link_postdate").text());
Elements select = doc.select("#article_details > div.category.clearfix > div.category_r");
List<String> cat = new ArrayList<>();
for(Element ele : select){
String text = ele.select("label span").get(0).text();
int i = text.lastIndexOf("(");
if(i>=0){
String substring = text.substring(0, i);
cat.add(substring);
}else{
cat.add(text);
}
;
}
bm.setCategories(cat);
Elements tagEles = doc.select("#article_details > div.article_manage.clearfix > div.article_l > span > a");
List<String> tags = new ArrayList<>();
for(Element ele : tagEles){
String text = ele.text();
tags.add(text);
}
bm.setTags(tags);
doc.getElementsByTag("script").remove();
bm.setContent(doc.select("#article_content").html());
try{
buildHexo(bm);
}catch (Exception e){
e.printStackTrace();
}
}
代码可能较糙。
这里结构化我是按照Hexo的方式来定的,
---
title: {{ title }}
date: {{ date }}
categories:
tags:
---
<!--more-->
more上面为文章摘要,下面为正文。
html2md
走到这一步的时候,我并没有打算自己去写,我知道这不是一个简单的程序,我在Github上找了许久,大部分是js写的,期间我也尝试使用java去调用js代码去完成转换,但是失败了,最后决定使用这个https://github.com/pnikosis/jHTML2Md,
看来这位哥们写这个的本意也是要搞博客迁移,因为里面有这样一个方法
htmlToHexoMd(String htmlPath, String mdPath, String charset)
当然了我没有用到,我用的是这个方法
String convertHtml(String html, String charset)
很顺利,文章成功导出,一些文章的标题创建不了文件,也就三篇,我就没有去管他
让人高兴的是,你只要知道一个人的博客昵称如“u010850027”,你都可以把他的文章导出来~~~
hexo发布
按理说,将对应的md文件放在“hexodir/source/_posts”下,然后执行发布命令就ok了,然而,此次最大的问题出现了,html转换md文件的问题!!!
对于一些简单的html代码,可以很完美的转换为md文件,但是对于复杂的就不行了,单单csdn里的代码块,都解析不了,后来我改了下作者的源码,然而也不行,因为CSDN有两种代码块方式,一个是markdown的一个是代码高亮,这一下问题就变的稍复杂起来。由于时间的问题,我打算先放一放,平时思考思考再看看能否解决。
后记
开始实现这个想法是周日凌晨开始的,真的,半夜听歌喝茶写代码会“高潮”!不知不觉搞到了凌晨三点多,然后睡觉,脑海里一直在想着这个问题,第二天上午也花了时间去解决问题,我想要是再花再这个上面,周末就玩完了。所以就暂且放一放!
最后白板上,蓝色虚线内的已经走通,红色区域内的问题是要重点解决的,待问题解决,就一路畅通了~~~
代码放在了这里:Github
想关注后续的欢迎star和fork
欢迎来我的博客参观