Python爬取某网站数据分析报告,不满十八岁禁止观看

声明:此文并不是标题党,如果你不满18岁,请马上关闭,在父母陪同下观看也不行。

数据来源

本文的数据抓取自国内最大的亚文化视频社区网站(不,不是 B 站),其中用户出于各种目的会在发帖的标题中加入城市名称,于是本文抓取了前10000个帖子的标题和发帖用户 ID,由于按照最近发帖的顺序排列,所以抓取数据基本上涵盖了2016年期间的发帖内容。然后通过匹配提取标题中所包含的城市信息,对16年活跃用户的归属地进行分析统计,另根据最近发布的《2016年中国主要城市 GDP 排名》:

想要学习Python。关注小编简书,私信【学习资料】,即可免费领取一整套系统的板Python学习教程!

检验两者之间是否存在某种程度的相关。

爬虫

当然本文的目的主要还是出于纯粹的技术讨论与实践,数据抓取和分析处理均使用 Python 完成,其中主要用到的数据处理和可视化工具包分别是Pandas和Plot.ly+Pandas。

由于网站使用较传统的论坛框架,经测试也没有防爬虫的措施,因此可以大胆地使用多线程,对于网页内容分析也可以直接用正则匹配完成:

import requests as req

import re

from threading import Thread

def parser(url):

res = req.get(url)

html = res.text.encode(res.encoding).decode()

titles = re.findall(RE_TITLE, html)

v = []

if titles is not None:

for title in titles:

if len(title) == 2 and title[-1] != 'admin':

if title[0][-1] != '>':

v.append(title)

return v

def worker(rag):

"""

将每个线程的数据临时存储到一个新的文本文件中即可。

"""

with open('{}+{}.txt'.format(rag), 'w+') as result:

for p in range(

rag):

url = ENT_PAT.format(p)

for title in parser(url):

result.write("{}|{}

".format(*title))

def main():

threads = []

for i in range(len(SECTIONS)-1):

threads.append(Thread(target=worker, args=(SECTIONS[i:i+2],)))

for thr in threads:

thr.start()

ifname== 'main':

main()

以上就是爬虫部分的代码(当然隐去了最关键的网址信息,当然这对老司机们来说并不是问题)。

Pandas

Pandas 可以看做是在 Python 中用于存储、处理数据的 Excel,与 R 语言中的 data.frame 的概念相似。首先将所有单独存储的文件中的数据导入到 Pandas:

import os

import pandas as pd

title, user = [], []

for root, _, filenames in os.walk('raws'):

for f in filenames:

with open(os.path.join(root, f), 'r') as txt:

for line in txt.readlines():

if line and len(line.split("|")) == 2:

t, u = line.split("|")

title.append(t)

user.append(u.strip())

data = pd.DataFrame({"title": title, "user": user})

保存到 csv 文件备用

data.to_csv("91.csv", index=False)

接下来以同样的方式将国内主要城市数据、2016主要城市 GDP 排行数据加载到 Pandas 中备用。

数据分析

首先需要明确以目前的数据可以探讨哪些有趣的问题:

各个城市的发帖总数;

各个城市的活跃用户数量;

以上两个数据结果与 GDP 之间的关系;

发帖形式分类(虽然这个问题的答案可能更有趣,以目前的数据量很难回答这问题,而且需要涉及到较复杂的 NLP,先写在这里);

最活跃的用户来自哪里。

首先加载备用的数据:

import pandas as pd

TABLE_POSTS = pd.read_csv("91.csv")

TABLE_CITY = pd.read_csv("TABLE_CITY.csv")

TABLE_GDP = pd.read_csv("TABLE_GDP.csv")

匹配标题中是否存在城市的名称:

# 先替换可能出现的“昵称”

TABLE_POSTS.title = TABLE_POSTS.title.str.replace("帝都", "北京")

TABLE_POSTS.title = TABLE_POSTS.title.str.replace("魔都", "上海")

def query_city(title):

for city in TABLE_CITY.city:

if city in title:

return city

return 'No_CITY'

TABLE_POSTS['city'] = TABLE_POSTS.apply(

lambda row: query_city(row.title),

axis=1)

过滤掉没有出现城市名的数据:

posts_with_city = TABLE_POSTS.loc[TABLE_POSTS.city != 'No_CITY']

以城市名进行 groupby,并按发帖数之和倒序排列:

posts_with_city_by_posts = posts_with_city.groupby(by="city").count().sort_values("title", ascending=False)[['title']].head(20)

现在已经可以直接回答第一个问题了,用 Plot.ly 将 Pandas 中的数据可视化出来,有两种方式,我们选择较简单的 cufflinks 库,直接在 DataFrame 中绘制:

import cufflinks as cf

cf.set_config_file(world_readable=False,offline=True)

posts_with_city_by_posts.head(10).iplot(kind='pie',

labels='city',

values='title',

textinfo='label+percent',

colorscale='Spectral',

layout=dict(

title="City / Posts",

width="500",

xaxis1=None,

yaxis1=None))

Python爬取某网站数据分析报告,不满十八岁禁止观看

前6名基本上不出什么意外,但是大山东排在第7名,这就有点意思了。为了排除某些“特别活跃”用户的干扰,将用户重复发帖的情况去除,只看发帖用户数量:

# 去除 user 栏中的重复数据

uniq_user = posts_with_city.drop_duplicates('user')

同样按照城市 groupby,然后倒序排列

posts_with_city_by_user = uniq_user.groupby(by="city").count().sort_values("title", ascending=False)[['title']].head(15)

posts_with_city_by_user.head(10).iplot(kind='pie',

values='title',

labels='city',

textinfo='percent+label',

colorscale='Spectral',

layout=dict(title="City / Users",

width="500",

xaxis1=None,

yaxis1=None))

Impressive,山东。至少说明还是比较含蓄,不太愿意写明具体的城市?是这样吗,这个问题可以在最后一个问题的答案中找到一些端倪。

接下来要和 GDP 数据整合到一起,相当于将两个 DataFrame 以城市名为键 join 起来:

posts_with_city_by_user_and_gdp = posts_with_city_by_user.merge(TABLE_GDP, left_on='city', right_on='city', how='inner')

由于有些漏掉的排行数据,同时由于人口数据较大,需要进行一定的预处理和标准化处理:

posts_with_city_by_user_and_gdp['norm_title'] =

posts_with_city_by_user_and_gdp.title/posts_with_city_by_user_and_gdp['pop']

posts_with_city_by_user_and_gdp['norm_rank'] =

posts_with_city_by_user_and_gdp['rank'].rank()

posts_with_city_by_user_and_gdp['x'] =

posts_with_city_by_user_and_gdp.index.max() - posts_with_city_by_user_and_gdp.index + 1

posts_with_city_by_user_and_gdp['y'] =

posts_with_city_by_user_and_gdp['norm_rank'].max() - posts_with_city_by_user_and_gdp['norm_rank'] + 1

绘制气泡图,气泡大小为用户数量与人口数的比,坐标值越大排行越高:

可以看到基本上存在一定程度的相关,但是到这里我们发现更有趣的数据应该是那些出现在 GDP 排行榜上却没有出现在网站排行上的城市,是不是说明这些城市更加勤劳质朴,心无旁骛地撸起袖子干呢?

good_cities = posts_with_city_by_user.merge(TABLE_GDP, left_o

="city", right_on="city", how="right")

good_cities[list(good_cities.title.isnull())][['city', 'rank', 'pop', 'title']]

注:由于 posts_with_city_by_user 只截取了前15,实际上青岛是排在前20的,从下一个结果中就能看出来…

最后一个问题,最活跃的老司机们都来自哪个城市?

user_rank = pd.DataFrame(TABLE_POSTS.user.value_counts().head(20))

user_rank.reset_index(level=0, inplace=True)

user_rank.columns = ['user', 'count']

user_rank.merge(posts_with_city[['user', 'city']], left_on='user', right_on='user', how='inner').drop_duplicates(['user','city'])

总结

以上就是全部数据与分析的结果。其实大部分只是一个直观的结果展示,既没有严谨的统计分析,也没有过度引申的解读。只有经过统计检验才能得出拥有可信度的结论,在一开始已经说明了本文只是纯粹的技术讨论与实践,所抓取的10000多条数据也只是网站中某个板块,因此对于以上结果不必太过认真。

想要学习Python。关注小编小编,私信【学习资料】,即可免费领取一整套系统的板Python学习教程!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,456评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,370评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,337评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,583评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,596评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,572评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,936评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,595评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,850评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,601评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,685评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,371评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,951评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,934评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,167评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,636评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,411评论 2 342

推荐阅读更多精彩内容

  • pyspark.sql模块 模块上下文 Spark SQL和DataFrames的重要类: pyspark.sql...
    mpro阅读 9,442评论 0 13
  • 瑜姐一字眉上的额头上,有着很明显的抬头纹,我很好奇,他是为多少事而愁呢?她整天都穿着一身黑,戴着黑色帽子,低着头,...
    仙baby阅读 384评论 0 3
  • 《了凡四训》我看了不下五遍,越看越觉得其中有许多值得研究之地方。目前我党也在积极推进大家学习,如果想觉得更加有效,...
    承谦阅读 392评论 0 0
  • 试想一下: 夏夜炎炎,你正和朋友吹着瓶、撸着串。 突然隔壁两桌不知为什么起了冲突,双方对峙,形势紧张。 你眼看着其...
    别样beyond阅读 1,111评论 0 0