Python 爬虫糗事百科插入MySQL数据库

参加向右奔跑老师爬虫小分队二期学习已经快一周的时间啦,之前完成的三篇作业一直都是关于Python程序逻辑的训练,虽然之前有过使用BeautifulSoup爬去简单网页数据的尝试,但是对网页结构化数据的抓取还从来没有尝试过,通过这几天参考同学们完成的作业和彭老师推荐的简书文章,今天尝试一次爬虫糗事百科数据(数据包括:作者,性别,年龄,段子内容,好笑数,评论数),并插入MySQL数据库。
代码如下:

import requests
from bs4 import BeautifulSoup
import re
import pymysql
#链接MySQL数据库
connect = pymysql.connect(
    host='localhost', 
    user='root', 
    passwd='root',  
    db='test',  
    port=3306,  
    charset='utf8'
    )
# 获取游标
cursor = connect.cursor()
#请求头
headers = {
  'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
}
def get_data(url):
    #模拟浏览器访问网页
    html = requests.get(url,headers).content
    #lxml解析网页内容返回给soup
    soup = BeautifulSoup(html,'lxml')
    #find_all得到所有包含目标内容的div的集合
    div_list = soup.find_all(name = 'div', class_ = 'article block untagged mb15')
    #for循环分别读取div集合中的目标数据
    for div in div_list:
        #定位获取作者名字数据
        author = div.find('h2').text
        #正则表达式定位获取性别年龄信息数据(匿名用户无信息需特别处理)
        genders = div.find(name = 'div', class_ = re.compile('articleGender .*'))
        if genders == None:
            gender = 'Null'
            age = 'Null'
        else:
            gender = genders.attrs['class'][1][:-4]
            age = genders.text
        #定位获取内容数据
        content = div.find('span').text
        #定位获取好笑数数据
        
        funny_nums = div.find(name = 'span', class_ = 'stats-vote').find('i')
        if funny_nums == None:
            funny_num = 0
        else:
            funny_num = funny_nums.text
        #定位获取评论数数据
        comment_nums = div.find(name = 'span', class_ = 'stats-comments').find('i')
        if comment_nums == None:
            comment_num = 0
        else:
            comment_num = comment_nums.text 
        #选择test数据
        cursor.execute("use test")
        #执行insert插入语句
        cursor.execute("insert into qiushibaike_tbl (author,gender,age,content,funny_num,comment_num) values(%s,%s,%s,%s,%s,%s)",(author,gender,age,content,funny_num,comment_num)) 
        #不执行不能插入数据
        connect.commit()
        
if __name__ == '__main__':
    #分别构建1-35页的url
    for i in range(1,36):
        url = 'http://www.qiushibaike.com/text/page/'+str(i)+'/?s=4986178'
        get_data(url)
    #关闭数据库链接,释放资源
    connect.close()
    print('SUCCESS!')
插入数据库

第一次完成网页结构化数据的抓取,几乎每一段程序代码都加了注释说明,成功爬到糗事百科35页699条数据,并存入本地搭建的MySQL数据库,存在一个问题向大家请教,糗事百科的匿名用户的年龄和性别不存在,直接判断过滤,但是匿名用户的段子内容数据没有抓到和插入数据库,程序执行过程也没有报任何错误!还请哪位大神看出问题所在后,留言指点!拜谢!拜谢!


上面的问题感谢罗罗攀Mr_Cxy的帮忙解答,问题还是对网页结构分析的不够透彻,没有发现匿名用户和非匿名用户的网页结构不同,没法直接用 content = div.find('span').text直接获取数据匿名用户的段子内容数据,需要分开处理,用 content = div.find_all('span')[2].text或者= div.select('span')[2].text获取获取数据匿名用户的数据,下面是修改后的程序代码:

import requests
from bs4 import BeautifulSoup
import re
import pymysql
#链接MySQL数据库
connect = pymysql.connect(
    host='localhost', 
    user='root', 
    passwd='root',  
    db='test',  
    port=3306,  
    charset='utf8'
    )
# 获取游标
cursor = connect.cursor()
#请求头
headers = {
  'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
}
def get_data(url):
    #模拟浏览器访问网页
    html = requests.get(url,headers).content
    #lxml解析网页内容返回给soup
    soup = BeautifulSoup(html,'lxml')
    #find_all得到所有包含目标内容的div的集合
    div_list = soup.find_all(name = 'div', class_ = 'article block untagged mb15')
    #for循环分别读取div集合中的目标数据
    for div in div_list:
        #定位获取作者名字数据
        author = div.find('h2').text
        #正则表达式定位获取性别年龄信息数据(匿名用户无信息需特别处理)
        genders = div.find(name = 'div', class_ = re.compile('articleGender .*'))
        if genders == None:
            gender = 'Null'
            age = 'Null'
            #定位获取匿名用户段子内容数据
            content = div.find_all('span')[2].text
        else:
            gender = genders.attrs['class'][1][:-4]
            age = genders.text
            #定位获取非匿名用户段子内容数据
            content = div.find('span').text
        #定位获取好笑数数据
        funny_nums = div.find(name = 'span', class_ = 'stats-vote').find('i')
        if funny_nums == None:
            funny_num = 0
        else:
            funny_num = funny_nums.text
        #定位获取评论数数据
        comment_nums = div.find(name = 'span', class_ = 'stats-comments').find('i')
        if comment_nums == None:
            comment_num = 0
        else:
            comment_num = comment_nums.text 
        #选择test数据
        cursor.execute("use test")
        #执行insert插入语句
        cursor.execute("insert into qiushibaike_tbl (author,gender,age,content,funny_num,comment_num) values(%s,%s,%s,%s,%s,%s)",(author,gender,age,content,funny_num,comment_num)) 
        #不执行不能插入数据
        connect.commit()
        
if __name__ == '__main__':
    #分别构建1-35也的url
    for i in range(1,36):
        url = 'http://www.qiushibaike.com/text/page/'+str(i)+'/?s=4986178'
        get_data(url)
    #关闭数据库链接,释放资源
    connect.close()
    print('SUCCESS!')
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,098评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,213评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,960评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,519评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,512评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,533评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,914评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,574评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,804评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,563评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,644评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,350评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,933评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,908评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,146评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,847评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,361评论 2 342

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,580评论 18 139
  • 本篇教程内容完全针对初学者,如果你需要更进阶一点的知识,本篇可能给你的帮助十分有限。 准备工作 首先确认代码环境,...
    BorisChen阅读 46,380评论 49 182
  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 171,386评论 25 707
  • 【刘柳六 作者 】 近几年来,市面上兴起了儿童学习沙画的浪潮,各大幼儿园、小学兴趣课堂,校外美术培训班都引进了沙...
    红艺盘古书画博文教育阅读 887评论 0 1
  • 第一章 当我还是小孩子的时候,对大人的生活,以后的生活,充满了憧憬,心里全是幻想。我梦寐以求的想要得到公主和王...
    雨曦陌然阅读 263评论 0 0