第一周/第二节项目练习: 爬取商品信息

1. 引言

爬取本地一个网页的内容,具体要求如下

Paste_Image.png

2. 准备

  • 借助模块bs4中的BeautifulSoup函数, lxml库来解析网页

安装:

  • CentOS: 从官网下载python3源码,编译安装再将bin文件夹的绝对路径加入/etc/profile.d/python3.sh,即可得python3pip3
    安装bs4模块: sudo pip3 install bs4
    安装lxml库: sudo pip3 install lxml
  • Ubuntu: 从官方编译好的库中直接用apt命令安装,简单方便
    安装python3: sudo apt install python3
    安装pip3: sudo apt install python3-pip
    安装bs4: sudo pip3 install bs4
    安装lxml: sudo pip3 install lxml

3. 分析

  • 右键单击要获取元素,点击检查元素即可得到其在网页中的路径
  • 使用len方法获取list的长度来取得星星数量
  • 将数据放入字典dict

代码如下:

# vim homework.py  //用vim新建文件`homework.py`
#!/usr/bin/env python3                                                                                                                                                                                             
# -*- coding: utf-8 -*-                                                                                                                                                                                            
                                                                                                                                                                                                                   
__author__ = 'jhw'                                                                                                                                                                                                 
                                                                                                                                                                                                                   
                                                                                                                                                                                                                   
# 从bs4模块导入BeautifulSoup函数                                                                                                                                                                                   
from bs4 import BeautifulSoup                                                                                                                                                                                      
                                                                                                                                                                                                                   
                                                                                                                                                                                                                   
# 将本次要打开文件的路径赋值给path变量,此为相对路径,和本文件同级                                                                                                                                                 
path = 'index.html'                                                                                                                                                                                                
                                                                                                                                                                                                                   
                                                                                                                                                                                                                   
def get_web(path):                                                                                                                                                                                                 
    # 只读方式打开网页                                                                                                                                                                                             
    with open(path, 'r') as f:                                                                                                                                                                                     
        # 读取文件内容                                                                                                                                                                                             
        wb_data = f.read()                                                                                                                                                                                         
        # 用lxml解析见面内容                                                                                                                                                                                       
        soup = BeautifulSoup(wb_data, 'lxml')                                                                                                                                                                      
        # 获取标题                                                                                                                                                                                                 
        titles = soup.select('div > div > div.col-md-9 > div > div > div > div.caption > h4 > a')                                                                                                                  
        # 获取图片                                                                                                                                                                                                 
        imgs = soup.select('div > div > div.col-md-9 > div > div > div > img')                                                                                                                                     
        # 获取价格                                                                                                                                                                                                 
        prices = soup.select('div > div > div.col-md-9 > div > div > div > div.caption > h4.pull-right')                                                                                                           
        # 获取评分量                                                                                                                                                                                               
        reviews = soup.select('div > div > div.col-md-9 > div > div > div > div.ratings > p.pull-right')                                                                                                           
        # 获取星级                                                                                                                                                                                                 
        stars = soup.select('div > div > div.col-md-9 > div > div > div > div.ratings > p:nth-of-type(2)')                                                                                                         
                                                                                                                                                                                                                   
        # zip函数: for后面变量的个数和zip函数里的变量数量相同,即一次次分别从对应变量的对应位置取值                                                                                                                 
        for title, img, price, review, star in zip(titles, imgs, prices, reviews, stars):                                                                                                                          
            data = {                                                                                                                                                                                               
                'title': title.get_text(),                                                                                                                                                                         
                'img': img.get('src'),                                                                                                                                                                             
                'price': price.get_text(),                                                                                                                                                                         
                'review': review.get_text().split(' ')[0],                                                                                                                                                         
                # 获取星星数量即为星级                                                                                                                                                                             
                'star': len(star.find_all('span', 'glyphicon glyphicon-star')),                                                                                                                                    
            }                                                                                                                                                                                                      
            print(data)                                                                                                                                                                                            
                                                                                                                                                                                                                   
                                                                                                                                                                                                                   
# 引用函数,传入path参数                                                                                                                                                                                           
get_web(path)
# python3 homework.py  //运行结果如下
{'price': '$24.99', 'star': 5, 'img': 'img/pic_0000_073a9256d9624c92a05dc680fc28865f.jpg', 'review': '65', 'title': 'EarPod'}                                                                                      
{'price': '$64.99', 'star': 4, 'img': 'img/pic_0005_828148335519990171_c234285520ff.jpg', 'review': '12', 'title': 'New Pocket'}                                                                                   
{'price': '$74.99', 'star': 4, 'img': 'img/pic_0006_949802399717918904_339a16e02268.jpg', 'review': '31', 'title': 'New sunglasses'}                                                                               
{'price': '$84.99', 'star': 3, 'img': 'img/pic_0008_975641865984412951_ade7a767cfc8.jpg', 'review': '6', 'title': 'Art Cup'}                                                                                       
{'price': '$94.99', 'star': 4, 'img': 'img/pic_0001_160243060888837960_1c3bcd26f5fe.jpg', 'review': '18', 'title': 'iphone gamepad'}                                                                               
{'price': '$214.5', 'star': 4, 'img': 'img/pic_0002_556261037783915561_bf22b24b9e4e.jpg', 'review': '18', 'title': 'Best Bed'}                                                                                     
{'price': '$500', 'star': 4, 'img': 'img/pic_0011_1032030741401174813_4e43d182fce7.jpg', 'review': '35', 'title': 'iWatch'}                                                                                        
{'price': '$15.5', 'star': 4, 'img': 'img/pic_0010_1027323963916688311_09cc2d7648d9.jpg', 'review': '8', 'title': 'Park tickets'}

4. 总结

  • BeautifulSoup是大神写好的第三方库, 安装好拿来就能解析网页代码
  • lxml用来分析网页代码结构
  • 取得具体元素可以用selectfind_all等方法,且取得的数据是一个list
  • 当几个list中的元素个数相同时可以用zip函数实现代码的简化却能实现复杂的功能
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容