Python实战计划week2_2项目

python实战计划的第六个项目:爬取手机号。

一、任务介绍
1.抓取58同城-武汉区域的手机号类目下1-10页帖子的标题和链接,存到数据库。
2.从数据库中读取每个链接,并爬取出每个商品的标题和价格。

二、任务分析
首先建立一个叫phone的数据库,随后创建phone_link表单和phone_info表单。

1.先写出get_links()函数,传入页面数参数后,获取整个页面的标题以及链接 ,插入到phone_link表单。

# 传入页面数,获取整个页面的标题以及链接 ,插入到phone_link表单
def get_links(page):
    url = 'http://wh.58.com/shoujihao/pn{}/'.format(page)
    wb_data = requests.get(url)
    time.sleep(1)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    titles = soup.select('strong.number')
    links = soup.select('a.t')
    for title, link in zip(titles, links):
        data = dict(title=title.get_text(), link=link.get('href'))
        phone_link.insert_one(data)

2.调用上面的函数收集页面1-10的链接,并存储到数据库的phone_link表单,其中收集的链接便是每个具体商品的链接。

# 依次获取页面为1到11的页面的标题和链接
for page in range(1, 11):
    get_links(page)

3.设计get_info()函数,接受商品链接参数,爬取出商品的标题和价格,并存储在phone_info表单。

# 传入具体的商品链接,获取商品的标题和价格,插入phone_info表单
def get_info(url):
    wb_data = requests.get(url)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    no_exist = '404' in soup.find('script', type="text/javascript").get('src').split('/')
    if no_exist:
        pass
    else:
        titles = soup.select('div.col_sub.mainTitle > h1')
        prices = soup.select('span.price.c_f50')
        for title, price in zip(titles, prices):
            data = dict(title=title.get_text().replace(' ', '').replace('\t', '').replace('\n', ''),
                        price=price.get_text().replace(' ', '').replace('\t', '').replace('\n', ''))
            print(data)
            phone_info.insert_one(data)

4.依次从表单phone_link取出链接,并调用get_info函数。

# 依次从表单phone_link取出链接,并调用get_info函数
for info in phone_link.find():
    url = info['link']
    get_info(url)

三、完整代码

import requests
import time
from bs4 import BeautifulSoup
import pymongo

client = pymongo.MongoClient('localhost', 27017)
phone = client['phone']
phone_link = phone['link']
phone_info = phone['info']


# 传入页面数,获取整个页面的标题以及链接 ,插入到phone_link表单
def get_links(page):
    url = 'http://wh.58.com/shoujihao/pn{}/'.format(page)
    wb_data = requests.get(url)
    time.sleep(1)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    titles = soup.select('strong.number')
    links = soup.select('a.t')
    for title, link in zip(titles, links):
        data = dict(title=title.get_text(), link=link.get('href'))
        phone_link.insert_one(data)


# 传入具体的商品链接,获取商品的标题和价格,插入phone_info表单
def get_info(url):
    wb_data = requests.get(url)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    no_exist = '404' in soup.find('script', type="text/javascript").get('src').split('/')
    if no_exist:
        pass
    else:
        titles = soup.select('div.col_sub.mainTitle > h1')
        prices = soup.select('span.price.c_f50')
        for title, price in zip(titles, prices):
            data = dict(title=title.get_text().replace(' ', '').replace('\t', '').replace('\n', ''),
                        price=price.get_text().replace(' ', '').replace('\t', '').replace('\n', ''))
            print(data)
            phone_info.insert_one(data)


# 依次获取页面为1到11的页面的标题和链接
for page in range(1, 11):
    get_links(page)

# 依次从表单phone_link取出链接,并调用get_info函数
for info in phone_link.find():
    url = info['link']
    get_info(url)

四、细节注意
1.get_info()中,对付404被删除页面的解决办法,注意里面的双引号

no_exist = '404' in soup.find('script', type="text/javascript").get('src').split('/')

2.replace()的用法

 dict(title=title.get_text().replace(' ', '').replace('\t', '').replace('\n', '')
 price=price.get_text().replace(' ', '').replace('\t', '').replace('\n', ''))

3.从表单中读取信息

for info in phone_link.find():
    url = info['link']
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,519评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,842评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,544评论 0 330
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,742评论 1 271
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,646评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,027评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,513评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,169评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,324评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,268评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,299评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,996评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,591评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,667评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,911评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,288评论 2 345
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,871评论 2 341

推荐阅读更多精彩内容

  • python实战计划的第七个项目:爬取武汉赶集网。 1.任务介绍 大致可以分为3个层次: a.第一个层次:获取类目...
    乐小Pi孩_VoV阅读 401评论 0 0
  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,561评论 18 139
  • 这个世界上,有很多东西,无论你再是爱国粉,也得承认人家的技术和品质是无双的,比如德日制造的科技和工业产品。所以,离...
    羽毛_阅读 201评论 0 3
  • 01 在跟身边的朋友相处的过程中,他们总是说我,“好爱笑哦”、“怎么那么乐观”、“又在那傻乐了”……等类似于这样的...
    金色的娜小姐阅读 842评论 4 12