import requests
from bs4 import BeautifulSoup
import json
team_base_url='http://www.ufball.com/match/join_teams_json.htm?divisionId=874902863023837184&page=' #在此基础上对参赛球队信息进行获取
team_player_base_url='http://www.ufball.com/match/team_players.htm?divisionId=874902863023837184&teamId=' #获取球员的相关信息
def get_team_info(url):
for i in range(1,11):
r=requests.get(url+str(i))
team_data=json.loads(r.text)
for i in range(len(team_data['data']['list'])):
teamName = team_data['data']['list'][i]['teamName']
teamID = team_data['data']['list'][i]['teamId']
get_team_player_info(teamID,teamName)
def get_team_player_info(ID,name):
r=requests.get(team_player_base_url+ID)
soup=BeautifulSoup(r.text,'lxml')
# playerName=soup.select('span[class~=player-name-value]')
# print(playerName)
for player in soup.find_all('div',class_='player-detail'):
playerName=player.find('span',class_='player-name-value').text
# print(playerName)
playerNum=player.find('span',class_='player-num-value').text
playerAddress=player.find('span',class_='player-address-value').text
playerAge=player.find('span',class_='player-age-value').text
playerHeight=player.find('span',class_='player-height-value').text
playerWeight=player.find('span',class_='player-weight-value').text
print(name + ' '+playerName + ' ' + playerNum + ' ' + playerAddress + ' ' + playerAge + ' ' + playerHeight + ' ' + playerWeight + ' ')
get_team_info(team_base_url)
【Python爬虫】爬取城市传奇参赛球队相关信息
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 校招进入火热状态,学人力资源管理的我想了解当前全国HR职位情况的相关数据,所以将近期爬虫目标瞄准了拉勾网 [...
- 先上代码: 下面是爬取的部分内容: 初学爬虫,代码写的很粗糙,很多地方还可以优化,其实一直感觉拿不出手,但是谁没...
- 这篇文章是Python爬虫的第二篇,目标是新浪微博的评论人的性别,地区,等信息,写的不好的地方请指正。 先来分析一...