使用python和requests爬取世界卫生组织vigiaccess不良反应数据库

vigiaccess是世界卫生组织收集药品不良反应的数据库,可以查询到各种药品的不良反应,本文是以爬取药品的不良反应为目标,本文仅供学习交流!!


一、分析网站特点,找到可以request的URL

1.分析网站

1.用谷歌浏览器打开网站http://www.vigiaccess.org/按F12进入调试模式,在Network 里点击XHR。进入网站在网站里输入药品名,我这输入的是Bisoprolol,然后点开Adverse drug reactions (ADRs)进入最里层。可以在XHR里就看到红色大框里的这3个文件。


2.第一个文件 drug?tradename=Bisoprolol 返回的是药品在数据库里的查询id,我这里输入的药品是Bisoprolol,所以返回的是1uNwu7s8xez4ME7Jg8fprw%3D%3D这么一串。我们先点击 drug?tradename=Bisoprolol 文件,再点击Preview就可以看到。

3.点击第二个文件distributions?agegroupFilter=&continentFilter=&rea…&substanc,再点击Preview,可以看到这个返回的是一级目录Adverse drug reactions (ADRs)等和它的二级目录及其二级目录的查询id。



4.点击第三个文件preferredterms?agegroupFilter=&continentFilter=&re…&s,再点击Preview,可以看到是具体的不良反应(ADR)。

2.获取URL

分别点击以上3个文件的Headers,可以看到链接Request URL。


  1. 第一个文件的链接:https://api.who-umc.org/vigibase/icsrstatistics/dimensions/drug?tradename=Bisoprolol,可以看到 <mark style="box-sizing: border-box; outline: 0px; margin: 0px; padding: 0px; background-color: rgb(248, 248, 64); color: rgb(0, 0, 0); overflow-wrap: break-word;">tradename=Bisoprolol</mark>,等于号后面的就是我们输入的药品Bisoprolol,所以我们只需修改等于号后面的就可以得到其他药品查询ID。我这里输入的药品是Bisoprolol,所以返回的药品查询ID是:<mark style="box-sizing: border-box; outline: 0px; margin: 0px; padding: 0px; background-color: rgb(248, 248, 64); color: rgb(0, 0, 0); overflow-wrap: break-word;">1uNwu7s8xez4ME7Jg8fprw%3D%3D</mark>。

  2. 第二个文件的链接:https://api.who-umc.org/vigibase/icsrstatistics/distributions?agegroupFilter=&continentFilter=&reactionFilter=&sexFilter=&substanceFilter=1uNwu7s8xez4ME7Jg8fprw%253D%253D,可以看到<mark style="box-sizing: border-box; outline: 0px; margin: 0px; padding: 0px; background-color: rgb(248, 248, 64); color: rgb(0, 0, 0); overflow-wrap: break-word;">substanceFilter=1uNwu7s8xez4ME7Jg8fprw%253D%253D</mark>,等于号后面的就是药品的查询ID(第一个文件返回的数据),所以我们只需修改等于号后面的就可以得到目录数据,返回的数据里有二级目录的ADR查询ID。

  3. 第三个文件的链接:
    https://api.who-umc.org/vigibase/icsrstatistics/distributions/reactions/preferredterms?agegroupFilter=&continentFilter=&reactionFilter=1qyE%252FhX5pLN1fUGPIVfAtQ%253D%253D
    &resultLimit=50&resultStart=0&sexFilter=&substanceFilter=1uNwu7s8xez4ME7Jg8fprw%253D%253D,可以看到<mark style="box-sizing: border-box; outline: 0px; margin: 0px; padding: 0px; background-color: rgb(248, 248, 64); color: rgb(0, 0, 0); overflow-wrap: break-word;">reactionFilter=1qyE%252FhX5pLN1fUGPIVfAtQ%253D%253D</mark>,等于号后面的就是第二个文件返回的二级目录ADR查询ID;还可以看到<mark style="box-sizing: border-box; outline: 0px; margin: 0px; padding: 0px; background-color: rgb(248, 248, 64); color: rgb(0, 0, 0); overflow-wrap: break-word;">substanceFilter=1uNwu7s8xez4ME7Jg8fprw%253D%253D</mark>,就是第二个文件里的链接后面部分即药品的查询ID。

3.爬虫思路

先用药品名拼接第一个文件里的url,requests得到药品的查询id。再用药品的查询id拼接第二个文件里的url,requests得到二级目录ADR的查询id。最后用二级目录ADR的查询id拼接第三个文件里的url,requests得到具体的ADR。

二、具体代码

# -*- coding: utf-8 -*-
from urllib import parse
import requests
import time
#查询药id的url
url_id ="https://api.who-umc.org/vigibase/icsrstatistics/dimensions/drug?tradename="
#查询分级Id的url
url_drug="https://api.who-umc.org/vigibase/icsrstatistics/distributions?agegroupFilter=&continentFilter=&reactionFilter=&sexFilter=&substanceFilter="
#不良反应信息的url,两部分组成
url_info_1="https://api.who-umc.org/vigibase/icsrstatistics/distributions/reactions/preferredterms?agegroupFilter=&continentFilter=&reactionFilter="
url_info_2="&resultLimit=50&resultStart=0&sexFilter=&substanceFilter="


#浏览器里的headers
headers={
    "Accept": "application/json, text/plain, */*",
    "Accept-Encoding": "gzip, deflate, br",
    "Accept-Language": "zh-CN,zh;q=0.9",
    "Authorization": "Basic VmlnaUJhc2VBY2Nlc3NDbGllbnQ6cHN3ZDRWaUE=",
    "Connection": "keep-alive",
    "Host": "api.who-umc.org",
    "Origin": "http://www.vigiaccess.org",
    "Referer": "http://www.vigiaccess.org/",
    "Sec-Fetch-Dest": "empty",
    "Sec-Fetch-Mode": "cors",
    "Sec-Fetch-Site": "cross-site",
    "umc-client-key": "6d851d41-f558-4805-a9a6-08df0e0e414b",
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36"
}


#抓取药品Id
def crawlDrugId(url):
    try:
        data=requests.get(url=url,headers=headers,timeout=10)
        print("抓取药品Id连接服务器状态:",data)
        drug_id=data.json()[0]["Code"]
        return drug_id
    except:
        return ""

#抓取分级Id
def scaleId(url):
    try:
        data=requests.get(url=url,headers=headers,timeout=10)
        print("抓取分级Id连接服务器状态:",data)
        data=data.json()["AdrObservations"]
        scale=[]
        #scale={}
        for i in data:
            # Group=i["Group"]
            GroupId = i["GroupId"]
            # NumberOfReports=i["NumberOfReports"]
            # scale[Group]=GroupId
            scale.append(GroupId)
        return scale
    except:
        return ""

#抓取不良反应信息
def crawlAdrInfo(url):
    try:
        data=requests.get(url=url,headers=headers,timeout=10)
        print("抓取不良反应信息连接服务器状态:",data)
        data=data.json()["Observations"]
        adr_info={}
        for i in data:
            Group=i["Group"]
            NumberOfReports=i["NumberOfReports"]
            adr_info[Group]=NumberOfReports
        return adr_info
    except:
        return ""


def main(drugList):
    data=[]
    for i in range(len(drugList)):
        drugName=drugList[i]
        new_url_id = url_id + drugName   #拼接url
        drug_id = crawlDrugId(new_url_id) #抓取药品Id
        time.sleep(1)
        drug_id = parse.quote(drug_id)   #将数据进行url编码
        new_url_drug = url_drug + drug_id#拼接url
        scale = scaleId(new_url_drug)#抓取分级页Id
        time.sleep(1)
        adr_info_all = {}
        for s in scale:
            s = parse.quote(s)  #将数据进行url编码
            url_info = url_info_1 + s + url_info_2 + drug_id#拼接url
            adr_info = crawlAdrInfo(url_info)#抓取不良反应信息
            time.sleep(1)
            adr_info_all.update(adr_info)
        print(adr_info_all)
        data.append(adr_info_all)
    return data

if __name__=="__main__":
    start_time = time.time()
    drug=["Bisoprolol"]   
    data=main(drug)
    print(data)
    print("successful,任务完成!!")
    end_time = time.time()
    uesd_time = end_time - start_time
    print("总用时:", uesd_time)

三、结束

上面代码只是简单实现了这个网站数据爬取,还得根据实际项目需要再做修改。注意:request 的时候,有时网站未响应或者响应超时,需添加代码多request几次。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,723评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,080评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,604评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,440评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,431评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,499评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,893评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,541评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,751评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,547评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,619评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,320评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,890评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,896评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,137评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,796评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,335评论 2 342