爬取维基百科词条

python爬取维基百科词条,获得某词汇页面中释义段落的加粗词汇、链接词汇以及所爬词汇对应的分类,为自动构建同义词汇树准备数据。
以下代码可能为一次性代码,因为解析html靠的是标签的相对位置,维基百科的html标签修改后,可能会对爬虫有影响,所以先给出学习爬虫的资料,页面改动后代码对应改动即可。
requests库使用教程
BeautifulSoup使用教程
这个爬虫是爬取我指定文件中包含的词汇,并不是在维基百科随便爬取,你可以在一个文件中指定要爬取的词汇,也可以看这篇文章获得指定文件。

# -*- coding: utf-8 -*-

import requests
from bs4 import BeautifulSoup


def get_word(folder_name, file_name):
    
    fp = open(folder_name + '/' + file_name, 'r')
    for line in fp:
        yield line.split('\t')[0]
    
    fp.close()
    


def download_html(url, word):
    response = requests.get(url + word)
    return response.text

    


def parse_html(html, word):
    '''
    维基百科3类不正常页面:
    1. 消歧页
    2. 重定向页
    3. 长度过短文章 (不必处理)
    '''
    
    def write2file(fp, arr):
        for item in arr:
            fp.write(item.encode('utf-8') + '#')
        fp.write('|||')
    
    soup = BeautifulSoup(html, 'html.parser')
    content = soup.find(id='mw-content-text')

    
    redirect = soup.find(attrs={'class' : 'mw-redirectedfrom'})
    title = ''
    if redirect != None:
        title = soup.find(id='firstHeading').text
        print '重定向到', title
    
    
    ambiguity = content.find_all(id='disambigbox')
    if len(ambiguity) != 0:
        '''
        对歧义词分文件存储
        '''
        print '是消岐页'
        
        fp_ambiguity = open('ambiguity.txt', 'a')
        fp_ambiguity.write(word + '|||' + title.encode('utf-8') + '|||')
        
        # 加粗的词汇
        paragraphs = content.find_all('b')
        for b in paragraphs:
            fp_ambiguity.write(b.text.strip().encode('utf-8') + '#')
        fp_ambiguity.write('|||')
        # 消歧页的歧义列表 取出链接指向关系
        lis = content.find_all('li')
        for li in lis:
            fp_ambiguity.write(li.a.text.strip().encode('utf-8') + '#')
        fp_ambiguity.write('|||')
        fp_ambiguity.write('\n')
        fp_ambiguity.close()
        return
    
    
    
    # 取出词汇的分类
    catlinks_arr = []
    catlinks = soup.find(id='mw-normal-catlinks').find_all('li')
    for catlink in catlinks:
        catlinks_arr.append(catlink.a.text)
    
    
    arr_para = []
    arr_b = []
    arr_a = []    
    for children in content.children:
        if children.name == 'p':
            if children.text == '':
                break
            # 取出整段的释义
            arr_para.append(children.text.strip())
            # 取出加粗词汇
            bs = children.find_all('b')
            if len(bs) != 0:
                for b in bs:
                    arr_b.append(b.text.strip())
            # 取出链接词汇
            ass = children.find_all('a')
            if len(ass) != 0:
                for a in ass:
                    arr_a.append(a.text.strip())
    
    fp = open('result.txt', 'a')
    fp.write(word + '|||' + title.encode('utf-8') + '|||')
    write2file(fp, catlinks_arr)
    write2file(fp, arr_b)
    write2file(fp, arr_a)
    write2file(fp, arr_para)
    fp.write('\n')
    fp.close()
    
    


def main():
    root_url = 'https://zh.wikipedia.org/wiki/'
        
    for word in get_word('../zh_labels', 'labels_result.txt'):
        print '爬取', word
        try:
            html = download_html(root_url, word)
            parse_html(html, word)
        except:
            print word, '爬取失败'
            fp = open('error_log.txt', 'a')
            fp.write(word + '\n')
            fp.close()
            continue
    
    
    print 'done'
    pass




if __name__ == '__main__':
    
    main()
    
    pass

注意修改代码中关于文件的路径
get_word(folder_name, file_name)函数从指定文件中取出待爬取的词汇。
download_html(url, word)函数下载对应url的html源码,并交给parse_html(html, word)函数解析。

维基百科的词条页面有4种情况:
  1. 正常页面
  2. 重定向,即用某个词汇访问url,会被带到另一个词汇页面。如访问https://zh.wikipedia.org/wiki/狗,会被维基百科带到了https://zh.wikipedia.org/wiki/犬页面。
  3. 歧义,即访问的词汇有多种含义,对于这种页面,我取出加粗词汇和歧义词汇(链接词汇)。如访问https://zh.wikipedia.org/wiki/金毛狗,会出现这样的页面:
  4. 未收录词汇,如访问https://zh.wikipedia.org/wiki/性质,会出现这种情况:
数据存储:

分三个文件存储:

  1. 正常词汇的维基百科数据,按如下格式存储:
    被爬取词汇|||重定向词汇|||分类1#分类2#|||加粗词汇1#加粗词汇2#|||链接词汇1#链接词汇2#|||释义段落1#释义段落2#|||\n
    \n代表换行
  2. 歧义词汇的维基百科数据,按如下格式存储:
    被爬取词汇|||重定向词汇|||加粗词汇1#加粗词汇2#|||链接词汇1#链接词汇2#|||\n
  3. 未收录词汇和爬取出错的词汇,全部写入error_log.txt文件中。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,911评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,014评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 142,129评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,283评论 1 264
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,159评论 4 357
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,161评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,565评论 3 382
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,251评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,531评论 1 292
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,619评论 2 310
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,383评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,255评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,624评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,916评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,199评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,553评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,756评论 2 335

推荐阅读更多精彩内容