概述 国家统计局的公开数据真实性强,宏观且与我们的生活息息相关。 因此,采集此数据作为数据分析实验的数据再好不过。 采集过程 采集各种公开数据的第一步就是分析网页。 上面的图是国家统。..
一、概述 国家统计局的公开数据真实性强,宏观且与我们的生活息息相关。 因此,采集此数据作为数据分析实验的数据再好不过。
二、采集过程 采集各种公开数据的第一步就是分析网页。 上面的图是国家统计局年度数据的界面。 左边是数据分类的树形菜单,右边是每个菜单点击之后显示的数据,可以设置年份来过滤数据。
2.1 采集数据分类树 根据页面的情况,首先,我们需要采集树形菜单中的数据,然后再根据菜单的分类来依次采集右边的数据。 这样可以避免采集的遗漏。 爬虫采集数据一般有 2 种情况:
采集 html 页面,然后分析其的构,提取出数据 查看是否存在获取数据的 API,直接从 API 中提取数据
通过分析网页的加载过程,发现国际统计局的数据是有 API 的,这就节省了很多时间。 API 信息如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 host: "https://data.stats.gov.cn/easyquery.htm" method: POST params: id=zb&dbcode=hgnd&wdcode=zb&m=getTree `通过 python 的 requests 库模拟 POST 请求就可以获取到树形菜单中的数据了。```java def init_tree(tree_data_path): data = get_tree_data() with open(tree_data_path, "wb") as f: pickle.dump(data, f) def get_tree_data(id="zb"): r = requests.post(f"{host}?id={id}&dbcode=hgnd&wdcode=zb&m=getTree", verify=False) logging.debug("access url: %s", r.url) data = r.json() for node in data: if node["isParent"]: node["children"] = get_tree_data(node["id"]) else: node["children"] = [] return data
直接调用上面的 init_tree 函数即可,树形菜单会以 json 格式序列化到 tree_data_path 中。 序列化的目的是为了后面采集数据时可以反复使用,不用每次都去采集这个树形菜单。(毕竟菜单是基本不变的)
2.2 根据分类采集数据 有了分类的菜单,一步就是采集具体的数据。 同样,通过分析网页,数据也是有 API 的,不用采集 html 页面再提取数据。
1 2 method: GET params: 参数有变量,具体参见代码
1 2 3 4 5 6 7 8 9 10 11 采集数据稍微复杂一些,不像采集树形菜单那样访问一次 API 即可,而是遍历树形菜单,根据菜单的信息访问 API。 ```java # -*- coding: utf-8 -*- ```python import logging import os import pickle import time
1 2 import pandas as pdimport requests
1 2 3 host = "https://data.stats.gov.cn/easyquery.htm" tree_data_path = "./tree.data" data_dir = "./data"
1 2 3 4 def data (sj="1978-" ): tree_data = [] with open (tree_data_path, "rb" ) as f: tree_data = pickle.load(f)
1 traverse_tree_data(tree_data, sj)
1 def traverse_tree_data (nodes, sj ):
for node in nodes:
# 叶子节点上获取数据
1 traverse_tree_data(node["children"], sj)
else:
1 write_csv(node["id"], sj)
1 2 def write_csv (nodeId, sj ): fp = os.path.join(data_dir, nodeId + ".csv" )
# 文件是否存在, 如果存在, 不爬取
1 2 if os.path.exists(fp): logging.info("文件已存在: %s", fp)
return
1 statData = get_stat_data(sj, nodeId)
if statData is None:
1 logging.error("NOT FOUND data for %s", nodeId)
# csv 数据
1 2 3 4 5 csvData = {"zb": [], "value": [], "sj": [], "zbCN": [], "sjCN": []} for node in statData["datanodes"]: csvData["value"].append(node["data"]["data"]) for wd in node["wds"]: csvData[wd["wdcode"]].append(wd["valuecode"])
# 指标编码含义
1 2 3 4 5 6 7 8 9 zbDict = {} sjDict = {} for node in statData["wdnodes"]: if node["wdcode"] == "zb": for zbNode in node["nodes"]: zbDict[zbNode["code"]] = { "name": zbNode["name"], "cname": zbNode["cname"], "unit": zbNode["unit"],
}
1 2 3 4 5 6 if node["wdcode"] == "sj": for sjNode in node["nodes"]: sjDict[sjNode["code"]] = { "name": sjNode["name"], "cname": sjNode["cname"], "unit": sjNode["unit"],
}
# csv 数据中加入 zbCN 和 sjCN
1 2 3 4 5 for zb in csvData["zb"]: zbCN = ( zbDict[zb]["cname"] if zbDict[zb]["unit"] == "" else zbDict[zb]["cname"] + "(" + zbDict[zb]["unit"] + ")"
)
1 csvData["zbCN"].append(zbCN)
1 2 for sj in csvData["sj"]: csvData["sjCN"].append(sjDict[sj]["cname"])
# write csv file
csvData,
1 columns=[ "sj" , "sjCN" , "zb" , "zbCN" , "value" ] ,
)
1 df.to_csv(fp, index=False)
1 2 def get_stat_data (sj, zb ): payload = {
"dbcode": "hgnd",
"rowcode": "zb",
"m": "QueryData",
"colcode": "sj",
1 2 "wds": "[]", "dfwds": '[{"wdcode":"zb","valuecode":"'
+ zb
1 + '"},{"wdcode":"sj","valuecode":"'
+ sj
}
1 2 r = requests.get(host, params=payload, verify=False) time.sleep(2)
1 2 3 4 logging.debug(r.text) resp = r.json() if resp["returncode"] == 200: return resp["returndata"]
else:
1 logging.error("error: %s", resp)
return None
代码说明:
tree_data_path = "./tree.data" : 这个是第一步序列化出的树形菜单数据
采集的数据按照树形菜单中的每个菜单的编号生成相应的 csv
树形菜单的每个叶子节点才有数据,非叶子节点不用采集
调用 data 函数来采集数据,默认是从 1978 年的数据开始采集的
### 三、采集结果
本次采集的结果有 1917 个不同种类的数据。
下载地址: https://databook.top/data/de9d8cc6-2bab-4ef1-b09f-8dcf83c32648/detail
本文标题: 国家统计局数据采
发布时间: 2019年01月06日 00:00
最后更新: 2025年12月30日 08:54
原始链接: https://haoxiang.eu.org/88a49e9/
版权声明: 本文著作权归作者所有,均采用CC BY-NC-SA 4.0 许可协议,转载请注明出处!