实践才是检验真理的唯一标准-爬虫制作(一)

前言:

这篇文章是真正的干货,我会尽力的把自己所要表达的东西表达出来。这次所完成的小程序缺点第一,不符合python面向对象的思想。第二,东西没有做到函数化,而且挺多参数都是写死的。本人也是做中学,下次再写会尽力让它完美一些。

目标:

本人最近新有了一个ipad mini,体会到了苹果公司科技的力量,怪不得果粉这么多。(ipad用wps看pdf书籍真的好用,一般人我不告诉他。不过希望大家还是买正版书,纸质书真的比电子的强)。所以想获得二手平板的信息,去吧就决定是你了:


58同城:http://bj.58.com/pbdn/0/pn1/

58

我们要爬取这个页面的所有个人的信息

就是这种↑

点进去

隐约看到了卖家的脸

我们要:标题,价格,时间,地点,商家还是个人。

为了完成这个小工程,我们需要引入几个第三方库:lxml,requests,BeautifulSoup。这几个库的用法请自行查阅官方文档,首先在最开始import所要用的库

from bs4 import BeautifulSoup

import requests

然后通过观察页面网址的变化:

广告真多

聪明的你一定发现了,商家和个人的区别就在于网址的一处变化,商家为http://bj.58.com/pbdn/1/个人为http://bj.58.com/pbdn/0/,所以写一个简单的函数:

def who_sell(who_sells=0):

    list_view ='http://bj.58.com/pbdn/{}/pn1/'.format(str(who_sells))

    return list_view

通过你改变函数参数,返回一个字符串,这里参数0就是个人1是商家,0为默认参数。接下来就是选出这个页面中你想要的信息的连接:

main_url = who_sell(0)                                                        (1)

web_data = requests.get(main_url)                                      (2)

soup = BeautifulSoup(web_data.text,'lxml')                          (3)

select = soup.select('td.t a.t')                                               (4)

leimu = who_sell(0)[:22]                                                      (5)

print(leimu)                                                                         (6)

page_link = []                                                                      (7)

for href in select:

    page_link.append(href.get('href'))                                     (8)

(1):我们先通过调用函数选中个人,返回一个网址,复制给main_url
(2):通过向这个选中的网址发送request请求,把得到的结果赋值给web_data
(3):对web_data的文本通过bs进行解析
(4):通过select函数选出你想要的东西,而‘td.t a.t’这个的来源先请看图:

来,检查一下

在你想要看的元素上面右键,检查:

是不是一脸蒙b

学过网页的小伙伴很快就能明白,这其中的奥秘,如果一脸雾水的小伙伴就可以看一下HTML5以及css的知识,这里个人推一下w3school 。看完这个,这里的东西就会很轻松读懂。观察之后你会发现,我们所需要的东西在一个<td class="t"><a href="所要去的网址" class="t"></a></td>之中,我们要把href提取出来,所以我们select之中的差数即为‘td.t a.t’。这里的点可以理解为td的标签下 class=‘t’。通过这个唯一标识,我们就能get到想要的东西
(5):返回类目,也就是我们爬取的根网页,这个并不是我们想要的东西,只是方便将来我看爬取的东西是什么。用了切片切取了网页的前22位。(6):打印出来类目
(7):创建一个list,用来存放网址
(8):把获取的网址添加到list中去

现在我们已经有了具体的网址,接下来我们要爬取具体信息了:
for url inpage_link:

    inf = requests.get(url)

    inf_soup = BeautifulSoup(inf.text,'lxml')

    titles = inf_soup.select('div.col_sub.mainTitle > h1')

    times = inf_soup.select('li.time')

    prices = inf_soup.select('div.su_con > span.price')

    places = inf_soup.select('div.su_con > span.c_25d')

    if titles==[]:

        title=['null']

    else:

        title=titles[0].get_text()

    if times == []:

        time = ['空']

    else:

        time = times[0].text

    if prices == []:

        price = ['null']

    else:

        price= prices[0].text

    if places == []:

        place = ['null']

    else:

        place = places[0].text[1:3]+places[0].text[-3:-1]

    data = {

    'title': title,

    'time': time,

    'price': price,

    'places': place,

    '类型':'个人'if(main_url[22:23] =='0')else'商家'

 }

    if(title!=['null']):

        print(data)

for循环的意思即为,遍历list中所有的网址。
inf = requests.get(url)

inf_soup = BeautifulSoup(inf.text,'lxml')

titles = inf_soup.select('div.col_sub.mainTitle > h1')

times = inf_soup.select('li.time')

prices = inf_soup.select('div.su_con > span.price')

places = inf_soup.select('div.su_con > span.c_25d')

同get到href的方法,右键检查

3000,好贵

以价格为例,在class='su_con'的子标签中他的clss='price c_f50',我们根据这个就可以提取出来所想要的信息。
if titles==[]:

title=['null']

else:

title=titles[0].get_text()

if times == []:

time = ['空']

else:

time = times[0].text

if prices == []:

price = ['null']

else:

price= prices[0].text

if places == []:

place = ['null']

else:

place = places[0].text[1:3]+places[0].text[-3:-1]
在这些if语句中,如果卖家没填这些信息,我们把他设为空,如果填了我们就用.text方法把两个标签之间夹的信息提取出来,例如price里的3000。这里的地址使用了切片因为提取出来的信息含有大量的换行符。所以切取想要的部分,并用加号连接。
data = {

'title': title,

'time': time,

'price': price,

'places': place,

'类型':'个人'if(main_url[22:23] =='0')else'商家'

}

if(title!=['null']):

    print(data)
把提取的信息存放到一个叫data的字典里。这里有一个问题,直接输出字典会出现全空的网页,所以这里通过过滤title的方法来过滤掉没用的信息。我们可以看一下结果:

是不是感觉amazing

最后:

就是这样~是不是感觉还可以。这只是一个简单的版本,有兴趣的小伙伴可以把整个北京的信息都爬取下来,可以做一些简单的数据处理。只需要在加一个循环即可。

可以加博主qq:844255371 咱们共同研究,记得附上备注简书。

博主脸皮中等厚度,记得文明探讨

最后的最后,附上github,ipad.py就是源代码。github 

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容