2019-06-21 python day-09

1.scrapy爬虫框架的使用:

一 Scrapy爬虫框架

发送请求 ---> 获取响应数据 ---> 解析数据 ---> 保存数据

** Scarpy框架介绍 **

1、引擎(EGINE)

引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。

2、调度器(SCHEDULER)

用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址

3、下载器(DOWLOADER)

用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的

4、爬虫(SPIDERS)

SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求

5、项目管道(ITEM PIPLINES)

在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作

下载器中间件(Downloader Middlewares)位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,

你可用该中间件做以下几件事:

(1) process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);

(2) change received response before passing it to a spider;

(3) send a new Request instead of passing received response to a spider;

(4) pass response to a spider without fetching a web page;

(5) silently drop some requests.

6、爬虫中间件(Spider Middlewares)

位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests)

** Scarpy安装 **

1、pip3 install wheel

2、pip3 install lxml

3、pip3 install pyopenssl

4、pip3 install pypiwin32

5、安装twisted框架

下载twisted

http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted

安装下载好的twisted

pip3 install 下载目录\Twisted-17.9.0-cp36-cp36m-win_amd64.whl

6、pip3 install scrapy

** Scarpy使用 **

1、进入终端cmd

- scrapy

C:\Users\administortra>scrapy

Scrapy 1.6.0 - no active project

2、创建scrapy项目

1.创建一个文件夹,专门用于存放scrapy项目

- D:\Scrapy_prject

2.cmd终端输入命令

scrapy startproject Spider_Project( 项目名)

- 会在 D:\Scrapy_prject文件夹下会生成一个文件

Spider_Project : Scrapy项目文件

3.创建爬虫程序

cd Spider_Project # 切换到scrapy项目目录下

# 爬虫程序名称 目标网站域名

scrapy genspider baidu www.baidu.com # 创建爬虫程序

3、启动scrapy项目,执行爬虫程序

# 找到爬虫程序文件进行执行

scrapy runspider只能执行某个 爬虫程序.py

# 切换到爬虫程序执行文件目录下

- cd D:\Scrapy_prject\Spider_Project\Spider_Project\spiders

- scrapy runspider baidu.py

# 根据爬虫名称找到相应的爬虫程序执行

scrapy crawl 爬虫程序名称

# 切换到项目目录下

- cd D:\Scrapy_prject\Spider_Project

- scrapy crawl baidu

2.微信机器人:

安装:wxpy 支持 Python 3.4-3.6,以及 2.7 版本

pip3 install -U wxpy

安装 pillow模块

pip3 install pillow

安装 pyecharts模块

pip3 install pyecharts


$ pip3 install echarts-countries-pypkg

$ pip3 install echarts-china-provinces-pypkg

$ pip3 install echarts-china-cities-pypkg

$ pip3 install echarts-china-counties-pypkg

$ pip3 install echarts-china-misc-pypkg


from wxpy import *

bot = Bot()


bot = Bot(cache_path=True) # 必须先登录过一次以后才可以使用缓存


from wxpy import Bot

from pyecharts import Pie

import webbrowser


# 实例化一个微信机器人对象

bot = Bot()


# 获取到微信的所有好友

friends = bot.friends()


# 设定男性\女性\位置性别好友名称

attr = ['男朋友', '女朋友', '未知']


# 初始化对应好友数量

value = [0, 0, 0]


# 遍历所有的好友,判断这个好友是男性还是女性

for friend in friends:

    if friend.sex == 1:

        value[0] += 1

    elif friend.sex == 2:

        value[1] += 1

    else:

        value[2] += 1


# 实例化一个饼状图对象

pie = Pie('hao的好友们!')


# 图表名称str,属性名称list,属性所对应的值list,is_label_show是否现在标签

pie.add('', attr, value, is_label_show=True)


# 生成一个html文件

pie.render('friends.html')


# 打开html文件

webbrowser.open('friends.html')

from wxpy import *

from pyecharts import Map

import webbrowser

bot=Bot(cache_path=True)


friends=bot.friends()



area_dic={}#定义一个字典,用来存放省市以及省市人数

for friend in friends:

    if friend.province not in area_dic:

        area_dic[friend.province]=1

    else:

        area_dic[friend.province]+=1


attr = area_dic.keys()

value = area_dic.values()




map = Map("好朋友们的地域分布", width=1200, height=600)

map.add(

    "好友地域分布",

    attr,

    value,

    maptype='china',

    is_visualmap=True, #结合体VisualMap


)

#is_visualmap -> bool 是否使用视觉映射组件

#

map.render('area.html')



webbrowser.open("area.html")



bot.file_helper.send('lqz say hello')


from wxpy import *

bot=Bot(cache_path=True)


@bot.register()

def recv_send_msg(recv_msg):

    print('收到的消息:',recv_msg.text) # recv_msg.text取得文本

    return '自动回复:%s' %recv_msg.text


# 进入Python命令行,让程序保持运行

embed()


from wxpy import *

bot=Bot(cache_path=True)


girl_friend=bot.search('女朋友的备注名称')[0]

print(girl_friend)


@bot.register() # 接收从指定好友发来的消息,发送者即recv_msg.sender为指定好友girl_friend

def recv_send_msg(recv_msg):

    print('收到的消息:',recv_msg.text) # recv_msg.text取得文本

    if recv_msg.sender == girl_friend:

        recv_msg.forward(bot.file_helper,prefix='老婆留言: ') #在文件传输助手里留一份,方便自己忙完了回头查看

        ms='老婆最美丽,我对老婆的爱如滔滔江水,连绵不绝'

        print('>>>给老婆回复的:', ms)

        return ms#给老婆回一份


embed()



from wxpy import *

bot=Bot(cache_path=True)


company_group=bot.groups().search('群名字')[0]


boss=company_group.search('老板名字')[0]



@bot.register(chats=company_group) #接收从指定群发来的消息,发送者即recv_msg.sender为组

def recv_send_msg(recv_msg):

    print('收到的消息:',recv_msg.text)

    if recv_msg.member == boss:

        #这里不用recv_msg.render 因为render是群的名字

        recv_msg.forward(bot.file_helper,prefix='老板发言: ')

        return '老板说的好有道理,深受启发'


import json

import requests

from wxpy import *

bot = Bot(cache_path=True)


# 调用图灵机器人API,发送消息并获得机器人的回复

def auto_reply(text):

    url = "http://www.tuling123.com/openapi/api"

    api_key = "9df516a74fc443769b233b01e8536a42"

    payload = {

        "key": api_key,

        "info": text,

    }

    r = requests.post(url, data=json.dumps(payload))

    result = json.loads(r.content)

    return "[来自智能机器人] " + result["text"]



@bot.register()

def forward_message(msg):

    return auto_reply(msg.text)


embed()


import json

import requests

from wxpy import *

bot = Bot(cache_path=False)


group=bot.groups().search('群名字')[0]

print(group)


# 调用图灵机器人API,发送消息并获得机器人的回复

def auto_reply(text):

    url = "http://www.tuling123.com/openapi/api"

    api_key = "9d602fe417464cd18beb2083d064bee6"

    payload = {

        "key": api_key,

        "info": text,

    }

    r = requests.post(url, data=json.dumps(payload))

    result = json.loads(r.content)

    return "[来自智能机器人] " + result["text"]



@bot.register(chats=group)

def forward_message(msg):

    return auto_reply(msg.text)


embed()



import requests

from wxpy import *

bot = Bot( cache_path=True)


girl_friend=bot.search('名字r')[0]


# 调用图灵机器人API,发送消息并获得机器人的回复

def auto_reply(text):

    url = "http://www.tuling123.com/openapi/api"

    api_key = "申请图灵机器人获取key值放到这里"

    payload = {

        "key": api_key,

        "info": text,

    }

    r = requests.post(url, data=json.dumps(payload))

    result = json.loads(r.content)

    return "[微信测试,请忽略] " + result["text"]



@bot.register()

def forward_message(msg):

    if msg.sender == girl_friend:

        return auto_reply(msg.text)


embed()

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容

  • 1. Scrapy 框架 Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,...
    常伟波阅读 399评论 0 0
  • 爬虫文章 in 简书程序员专题: like:128-Python 爬取落网音乐 like:127-【图文详解】py...
    喜欢吃栗子阅读 21,736评论 4 412
  • 背景 部门(东方IC、图虫)业务驱动,需要搜集大量图片资源,做数据分析,以及正版图片维权。前期主要用node做爬虫...
    字节跳动技术团队阅读 7,646评论 1 67
  • 自己和自己生气,激活自己最邪恶的一面,在镜子里发现了另个你,其实那就是你自己,只有水清才能看到原来的浑浊是一滩泥沙...
    鱼腐书生阅读 189评论 1 0
  • ①早春真调皮, 它飞进了我的眼睛。 我看到一只燕子造新房, 又看到一对鸳鸯晒太阳, 还看到一群鸭孑打水一仗。 ②早...
    欣妍cxy阅读 292评论 0 5