色即是空-Python疯狂爬虫-煎蛋美女图

目标:

抓取煎蛋美女图片,通过实践熟悉python相关模块及字典的应用。

声明:
本程序仅用于交流学习研究,请勿频繁抓取数据对相关网站造成影响.

Cue→Routine→Reward,触发机制、模式、激励,这是促成习惯的三个要素,这个结论来自《习惯的力量》,这个说法在提升自己的动机、改变拖延上是非常有帮助的。

  • 不依赖毅力,导入促进自己不断学习的机制。
    • 找到动机(奖励:美女图片)
    • 让学习快乐的机制

我们将通过抓取美女图片来学习如何抓取网页(吊丝的最爱_)。

动机,在心理学上一般被认为涉及行为的发端、方向、强度和持续性。动机为名词,在作为动词时则多称作激励。在组织行为学中,激励主要是指激发人的动机的心理过程。通过激发和鼓励,使人们产生一种内在驱动力,使之朝着所期望的目标前进的过程;又在此过程中,动机通常不会是一成不变的,相反地,动机可能会增加或降低。然而,不管动机水准的高低为何,人们若能维持一定的动机水准,则不但能维持追求该目标的行为,也能维持心理上对该目标的渴望,直到人们知觉到该目标达成为止,因此动机时常被视为是行为的前导驱力,若能掌握人们的动机,则往往可以协助预测其行为的方向性与模式。 ...
[http://zh.wikipedia.org/zh-cn/动机]

流程:

  1. 建立下载目录:jiandanxxoo20160612
  2. 创建随机的user-agent
  3. 获取图表url
  4. 下载保存图片

核心知识要点:

  1. requests
  2. bs4
  3. time
  4. random
  5. os , path
  6. with...open 保存文件
  7. for , 字典
  8. 函数

[code]:

#/usr/bin/env python3.5
# -*- coding: utf-8 -*-
__author__ = 'zenway33'

from bs4 import BeautifulSoup
import requests
import time
import random
import os

# 建立一个目录用于存储下载的文件:
img_dir = 'jiandanxxoo20160612'
if not os.path.isdir(img_dir):
    os.mkdir(img_dir)

# 获取一个随机的header
def random_header():
    #def LoadUserAgents(uafile="user_agents.txt"):
    def load_useragents(uafile="user_agents.txt"):
            """
            uafile : string
                path to text file of user agents, one per line
            """
            uas = []
            with open(uafile, 'rb') as uaf:
                for ua in uaf.readlines():
                    if ua:
                        uas.append(ua.strip()[1:-1-1])
            random.shuffle(uas)
            return uas

    # load the user agents, in random order
    uas = load_useragents(uafile="user_agents.txt")
    # load user agents and set headers
    ua = random.choice(uas)  # select a random user agent
    headers = {
        "Connection" : "close",  # another way to cover tracks
        "User-Agent" : ua}
    return headers


# proxy = {"http": "http://username:p3ssw0rd@10.10.1.10:3128"}
'''
headers = {
       'User-Agent': 'Mozilla/5.8 (X11; Linux x86_64) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',
       'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
       'Accept-Charset': 'ISO-8859-1,utf-8;q=0.7,*;q=0.3',
       'Accept-Encoding': 'none',
       'Accept-Language': 'en-US,en;q=0.8',
       'Connection': 'keep-alive'
}
'''

# 单个页面的内容抓取分析
'''
url = 'http://jandan.net/ooxx/page-2007'
wb_data = requests.get(url,headers=headers)
soup = BeautifulSoup(wb_data.text,'lxml')

imgs = soup.select('p > img')

for img_url in imgs:
    url = img_url.get('src')
    print(url)
'''


# 下载文件,保存本地
def download(image_url, image_name):
    headers = random_header()
    r = requests.get(image_url, stream = True,headers=headers)
    #with open(path + '/' + '{}.jpg'.format(index), "wb") as fs:
    with open(os.path.join(img_dir, image_name), 'wb') as fs:
        fs.write(r.content)
        fs.close
    print("filename: %s , image_url: %s... is download" % (image_name, image_url))

# 获取图片url
def get_image_info():
    for page_num in range(2000,2015):

            headers = random_header()

            wb_data =requests.get('http://jandan.net/ooxx/page-{}'.format(page_num), headers=headers)
            time.sleep(5)
            soup = BeautifulSoup(wb_data.text,'lxml')
            image_urls =  soup.select('p > img')
            print("page_num: %s" % page_num)

            try:
                for index,image_url in enumerate(image_urls):
                    image_url = image_url.get('src')
                    data = {
                        'image_url' :image_url,
                        #'image_name'  :image_url.split('/')[-1]
                        'image_name' :'{}.jpg'.format(index)

                    }
                    #print(data)
                    image_url = data['image_url']
                    image_name = str(page_num) + '_' + data['image_name']
                    #download images
                    download(image_url, image_name)
            except:
                pass

if __name__ == "__main__":
    start_time = time.time()
    get_image_info()
    print("--- %s seconds ---" % (time.time() - start_time))

美女效果图:

Paste_Image.png

参考:

https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,340评论 5 467
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,762评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,329评论 0 329
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,678评论 1 270
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,583评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 47,995评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,493评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,145评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,293评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,250评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,267评论 1 328
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,973评论 3 316
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,556评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,648评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,873评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,257评论 2 345
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,809评论 2 339

推荐阅读更多精彩内容